Navegando la Revolución de GenAI: 5 Estrategias para un Marketing Seguro y Efectivo

This ad is not shown to multipass and full ticket holders
React Summit US
React Summit US 2025
November 18 - 21, 2025
New York, US & Online
The biggest React conference in the US
Learn More
In partnership with Focus Reactive
Upcoming event
React Summit US 2025
React Summit US 2025
November 18 - 21, 2025. New York, US & Online
Learn more
Bookmark
Rate this content

En esta presentación, Udipta profundizará en los roles de la IA predictiva y generativa en el marketing, con un fuerte énfasis en la importancia de la implementación responsable. Basándose en su experiencia en Salesforce, Adobe y WPP, desglosará el potencial transformador de la IA generativa mientras destaca las fortalezas fundamentales de la IA predictiva. Udipta delineará cinco estrategias esenciales que los equipos de marketing pueden adoptar para maximizar los beneficios de la IA generativa mientras gestionan eficazmente sus riesgos asociados. A través de ejemplos prácticos y estudios de caso, busca equipar a los asistentes con conocimientos prácticos para impulsar la adopción responsable de la IA dentro de sus organizaciones.

This talk has been presented at Productivity Conf - Practical AI in Marketing, check out the latest edition of this Tech Conference.

Udipta Basumatari
Udipta Basumatari
25 min
05 Dec, 2024

Comments

Sign in or register to post your comment.
Video Summary and Transcription
La charla de hoy discute el uso efectivo de Gen AI en el marketing mientras se prioriza la seguridad, la ética y el cumplimiento. Los desafíos de usar IA generativa incluyen violaciones de datos, robo de propiedad intelectual, violaciones de cumplimiento y daño a la reputación de la marca. Las mejores prácticas para implementar IA generativa incluyen la recuperación segura de datos, técnicas de enmascaramiento para información sensible y verificación de toxicidad. Las estrategias para un uso seguro y protegido de Gen AI implican implementar una capa de sensibilidad para la protección de datos y desarrollar una interfaz de usuario segura. Además, la formación en ética, la educación continua y la priorización de casos de uso ético de IA son cruciales para una implementación exitosa.

1. Introducción a Gen AI en Marketing

Short description:

Hoy, discutiremos cómo podemos usar Gen AI de manera efectiva en marketing mientras priorizamos la seguridad, la ética y el cumplimiento. Los hitos que la tecnología de marketing ha atravesado incluyen el movimiento de la industria del software hacia los sistemas en la nube, el momento crucial del acceso móvil a Internet, el auge de las redes sociales y la importancia de los big data. Nos centraremos específicamente en Gen AI y su relación con el aprendizaje automático y el aprendizaje profundo. La IA en marketing ha sido predominantemente IA predictiva.

Hola a todos, y gracias por acompañarme hoy. Mi nombre es Udittha, y actualmente soy el CMO de Travers.io, una empresa de tecnología deportiva de IA. Y tengo una experiencia de unos 16 años en roles relacionados con Martek en empresas como Adobe, Salesforce, Rakuten y WPP.

Hoy estoy emocionado de llevarlos a través de algunas estrategias críticas para navegar en el mundo de la inteligencia artificial generativa o Gen AI. Hoy, discutiremos cómo podemos usar Gen AI de manera efectiva en marketing mientras priorizamos la seguridad, la ética y el cumplimiento. Con el rápido auge de la inteligencia artificial generativa, creo que estas prácticas y estrategias no solo son beneficiosas, sino que se han vuelto esenciales, como veremos.

No hablaré mucho sobre los beneficios de usar Gen AI porque toda esta conferencia trata sobre eso. Pero me gustaría compartir mi experiencia en cómo las empresas de las que formo parte están utilizando estas estrategias para asegurarse de que el uso de la inteligencia artificial generativa se realice en un entorno muy seguro que no dañe la reputación de la empresa y, de hecho, aumente su productividad. Así que con eso, me gustaría cubrir rápidamente los hitos que la tecnología de marketing ha atravesado. No hay un orden para estos. Se trata más de los hitos cruciales y los puntos cruciales, comenzando con el movimiento de la industria del software hacia los sistemas en la nube. Fue entonces cuando básicamente obtuvimos acceso a herramientas, dispositivos y software a los que podíamos acceder desde cualquier parte del mundo. El móvil fue obviamente un momento crucial porque las personas ahora podían acceder a Internet en movimiento, lo que significa que la capacidad de las organizaciones para llegar a ellos se expandió exponencialmente. Las redes sociales fueron otro gran paso, que luego fue sucedido por los datos, específicamente los big data, porque la cantidad de datos que se capturaban sobre los usuarios y las interacciones en varios canales, redes sociales, dispositivos móviles, ahora todos tenían que unirse. Eso vio el auge de herramientas como los CDPs, que se han vuelto bastante ubicuos tanto en las PYMEs como en las organizaciones multinacionales.

El que vamos a estar viendo es la inteligencia artificial. Específicamente, vamos a estar viendo Gen AI porque cada vez que surge una nueva tecnología hay muchas interrogantes sobre esa tecnología. Y esto es lo que estaría feliz de abordar hoy, para entender rápidamente dónde se sitúa Gen AI. Ahora, usualmente hablamos de inteligencia artificial como este concepto abarcador. Sin embargo, es importante entender que el aprendizaje automático es típicamente el único sistema de inteligencia artificial con el que estamos familiarizados. Y a medida que profundizas, el aprendizaje automático es bastante fácil de entender porque tienes un conjunto de datos, das un conjunto específico de instrucciones a un sistema y aprende usando redes neuronales. Las redes neuronales se vuelven importantes porque hay múltiples nodos. Es muy parecido al cerebro humano. Múltiples nodos comienzan a interactuar y eso acelera el proceso de aprendizaje. El aprendizaje profundo es cuando tienes múltiples nodos, pero hay múltiples capas de esos nodos. Así que tienes una forma mucho más compleja de permitir que el sistema entienda y aprenda como prácticamente como un ser humano. Y ahí es donde entra la inteligencia artificial generativa. Durante muchos, muchos años, hemos estado confiando en la IA en marketing, pero ha sido principalmente IA predictiva. Así que la IA predictiva es algo que básicamente puede clasificar, predecir y tomar acciones. Así que piensas en cosas como hacer matemáticas, ya sabes, hacer tus métricas, tus cálculos.

2. Challenges of Using Generative AI

Short description:

La IA generativa es una forma nueva y poderosa de IA que genera resultados basados en datos. Sin embargo, el uso de la IA generativa presenta desafíos relacionados con la confianza, la seguridad y el cumplimiento. Estos desafíos incluyen el riesgo de violaciones de datos, robo de propiedad intelectual, violaciones de cumplimiento, infracción de derechos de autor, desinformación y daño a la reputación de la marca. Para abordar estos desafíos, las empresas necesitan implementar salvaguardas adecuadas y establecer un marco de seguridad de datos.

Y debido a que la hemos estado usando durante tantos años, es una forma confiable de IA en este momento. Y no muchas personas cuestionan su uso o el resultado que reciben cuando la utilizan.

La IA generativa, por otro lado, es algo que genera algo basado en los datos que le proporcionas. Así que puedes verla más como un sistema que es bueno generando algo nuevo como arte. Es obviamente completamente nueva. Y es ahí donde algunas de estas prácticas de confianza y seguridad no se han vuelto tan ubicuas como nos gustaría que fueran.

Entonces, nuevamente, la IA generativa toma información, ya sea texto, imágenes, videos o cualquier tipo de datos. Hay modelos de datos específicos que aprenden utilizando metodologías de aprendizaje profundo. Y luego, cuando solicitas algo y obtienes un resultado, ese resultado podría ser en forma de una imagen, texto, o a medida que los modelos se vuelven más y más sofisticados, estás comenzando a ver personas crear videos completos, códigos de software completos, etc. Pero el punto importante es que debido a que hay una cantidad enorme de flujo de datos que ocurre desde la fuente hasta el resultado, hay muchos problemas que pueden ocurrir y las empresas deben ser conscientes de cómo abordar esos problemas.

Comenzando con el número uno, violación de datos. Uno de los ejemplos más famosos que veremos como estudio de caso es sobre Samsung. Esencialmente, es cuando los empleados de la empresa usan un LLM público como chat GPT o perplexity y utilizan datos sensibles de la empresa o del cliente y los envían a esos sistemas. Y eso puede llevar a muchos problemas cuando se trata de personas buscando información sobre la empresa, tratando de encontrar formas de encontrar puertas traseras. Así que eso es claramente un problema. Y es el robo de propiedad intelectual. Nuevamente, si vas a poner información de propiedad intelectual específica de la empresa en un servidor que no te pertenece, realmente no sabes dónde va a terminar. Así que ese es el segundo problema.

El número tres es sobre el cumplimiento. Así que el cumplimiento es muy complejo, obviamente. Vivimos en un mundo de cosas como el GDPR y usar la IA generativa sin las salvaguardas adecuadas puede resultar en violaciones de estas regulaciones, incluido el GDPR, y lo que llevará a multas cuantiosas y repercusiones legales. Además, el resultado generado por la IA generativa puede infringir inadvertidamente derechos de autor o marcas registradas existentes, algo de lo que cualquier organización debería tener mucho cuidado. También tienes la situación de crear desinformación y dañar la reputación de la marca. Por ejemplo, si usas la IA generativa para producir contenido engañoso o inexacto, puede afectar negativamente la reputación de la empresa cuando usas esas cosas en marketing o comunicación con el cliente, algo que sale y está disponible para todos. Además, difundir información inexacta sin verificar o sin verificar los hechos puede llevar a la insatisfacción del cliente, pérdida de confianza y posible reacción negativa.

Así que, en última instancia, todo esto se reduce a la confianza. Y sabemos que la confianza es una de las mercancías más difíciles de ganar para una marca, especialmente en un entorno hipercompetitivo en el que existen hoy. Así que es muy importante asegurarse de que los empleados estén bien conscientes de estos desafíos y de estos peligros antes de que usen estos softwares como los softwares de IA generativa. Una de las formas en que las empresas pueden prevenir que estos problemas surjan es tener un marco de seguridad de datos. Así que mi experiencia en esto proviene de mi trabajo con el Einstein Trust Layer de Salesforce, cuando estaba trabajando con el producto Data Cloud.

3. Implementing Best Practices for Generative AI

Short description:

Las empresas pueden implementar fácilmente las mejores prácticas para crear prompts y resultados para la IA generativa. El marco de seguridad de datos garantiza una recuperación segura de datos. Grounding utiliza datos de clientes para personalizar mensajes, con técnicas de enmascaramiento para proteger información sensible. Enviar datos a modelos de terceros no debe retener datos, y las opciones incluyen trabajar con empresas como Salesforce o tener modelos alojados localmente. El resultado debe ser revisado para detectar toxicidad antes de ser enviado al público.

Y sentí que la mayoría de estas mejores prácticas pueden ser fácilmente implementadas por las empresas, si pueden proporcionar un poco de recursos, tiempo y energía en ello. Así que la idea principal de esto es tener un marco donde, independientemente de cuán no entrenado o cuán inexperto pueda ser el equipo, puedan crear prompts y puedan crear resultados que puedan ser compartidos con software a nivel empresarial.

Así que un ejemplo podría ser, si estoy tratando de enviar un correo electrónico a 10,000 personas en mi base de datos de clientes, obviamente querré, y estoy usando IA generativa, obviamente querré personalizarlo al nivel más profundo posible porque a mayor personalización, mayor tasa de conversión. Pero hay muchos desafíos para llegar allí. Así que hagamos un recorrido y veamos cómo funciona esto. Comenzamos con un prompt. Un prompt es solo un texto que escribes. Es una consulta. En el momento en que presionas enviar en el prompt, el marco de seguridad de datos entra en acción. Así que el prompt es aceptado de manera segura. Esa es la parte de recuperación segura de datos. Y luego viene la primera parte desafiante, que es grounding.

Grounding es básicamente usar los datos de tu cliente para personalizar el mensaje. Así que, por ejemplo, si estoy dirigiendo una empresa como Ticketmaster, y necesito enviar 10,000 boletos, 10,000 correos electrónicos, quiero asegurarme de que esos correos electrónicos contengan el tipo correcto de recomendaciones. La mayoría de las analíticas predictivas pueden hacer eso, pero si quieres ir al siguiente nivel, como incluir un cierto tipo de jerga en el lenguaje, o incluir ciertos tipos de mensajes, o cierto tipo de jerga, que solo una cierta banda es conocida por, y quieres enviarlo a los fans de esas bandas, ahí es donde entra la IA generativa. Ahora, los datos de la empresa van a ser accedidos, van a ser usados para grounding, y esa es la primera área de riesgo, porque estás exponiendo los datos de tu empresa a un sistema ahora, que va a ser usado para comunicarse con la IA generativa. Sin embargo, hay formas de asegurarse de que esto no caiga en las manos equivocadas, o si los datos se filtran. El enmascaramiento es el primer paso.

El enmascaramiento es básicamente, si el ID de un usuario es usuario1234, lo enmascarará como algo como XYZ12345, o algo así. Y cuando el resultado se devuelve a un sistema, lo emparejamos de nuevo para que se use el nombre correcto del usuario. Después de eso viene la parte complicada de enviarlo a un LLM. Ahora, los LLM como ChatGPT o cualquiera de estas empresas que proporcionan API, son obviamente modelos muy sofisticados, costosos, con un costo superior a $100 mil millones, no es fácil para la mayoría de las empresas construirlo por sí mismas. Sin embargo, hay opciones, como a medida que los LLM se vuelven más y más eficientes, muchas empresas están decidiendo crear modelos alojados localmente, lo cual es definitivamente una opción, pero tienes que asegurarte de que tienes los recursos para poder alimentarlo.

De todos modos, así que cuando los datos llegan aquí, es donde ocurre la magia.

4. Implementing a Secure Data Framework

Short description:

Para garantizar la seguridad de los datos, es crucial destruir los datos accedidos por modelos de terceros una vez que se crea el resultado. Las organizaciones pueden trabajar con empresas como Salesforce o tener modelos alojados localmente para reducir el riesgo de fuga de datos. El resultado debe ser revisado para detectar toxicidad y errores fácticos. Mantener un registro de auditoría es importante para rastrear responsabilidades y corregir errores. Una vez satisfechos, el resultado puede enviarse a aplicaciones de marketing, pero se debe tener precaución con los sistemas de terceros debido a riesgos de cumplimiento y seguridad de datos. Construir una solución interna requiere recursos y colaboración entre los equipos de tecnología y marketing. Los sistemas híbridos que combinan ambas opciones aumentan la sobrecarga de gestión y la complejidad de integración.

Ahora, para que esta magia suceda, para que se cree este resultado, debes asegurarte de que los datos que están siendo tomados por un modelo de terceros no se retengan. Así que en el momento en que se crea el resultado, esos datos deben ser destruidos. Así que las grandes corporaciones como, por ejemplo, Salesforce, trabajan con OpenAI y tienen contratos establecidos. Depende de la organización que lo use asegurarse de que estos contratos se respeten, o por supuesto, si tienes la opción, puedes tener tu propio modelo alojado localmente, lo que reduce significativamente el riesgo y el peligro de que tus datos se filtren.

Una vez que eso está hecho, se envía, la generación ocurre, ahí es donde sale el resultado. Ahora, eso no es el final de la historia, porque también necesitas asegurarte de que el resultado que vas a enviar al público no contenga toxicidad, como lenguaje ofensivo o jerga, o opiniones controvertidas. Y, por supuesto, las alucinaciones, por las que los LLM aún son bien conocidos, es que cometen errores fácticos, pero parece, quiero decir, lo hacen de una manera que parece, que es verdadera, que es correcta y verdadera. Así que solo tienes que tener un poco de cuidado con eso. Finalmente, es importante que mantengas un registro de auditoría para asegurarte de saber quién fue responsable de qué paso, en qué paso algo salió mal, para que puedas rastrear hacia atrás, puedas entender cuáles fueron los errores y corregirlos para cualquier propósito futuro.

Finalmente, una vez que estés satisfecho con el resultado, entonces es el momento de enviarlo a tus aplicaciones de marketing, como tus sistemas CRM, tus sistemas de publicidad, cualquier API, o cualquier punto de intercambio de datos donde esta información será utilizada para difundirla a tu audiencia. Así que eso es solo una vista de alto nivel de un marco de seguridad. Ahora, obviamente, no es posible para cada empresa construirlo por sí misma. La mayoría de las grandes empresas que proporcionan herramientas de IA vienen con su propio, ya sabes, algún tipo de capa de seguridad o confianza. Y es entonces cuando, si quieres usar sistemas de terceros, absolutamente, siéntete libre de hacerlo, pero solo asegúrate de que haya una personalización limitada allí. Y, por supuesto, podría haber preocupaciones de cumplimiento y riesgos de seguridad de datos, porque si esas empresas tienen problemas, son hackeadas o algo, tus datos también estarán ahí afuera en el mercado después de eso. La otra opción, opción extrema, es construir algo internamente.

Ahora, esa es usualmente una opción que estoy viendo más y más de estas empresas enfocadas en tecnología, altamente técnicas se acercan. Así que, por ejemplo, hay esta OTA en el sudeste asiático, que está alojando todo localmente, uso muy sofisticado de las herramientas que se están construyendo alrededor de su sistema LLM. El único problema es que esto requiere muchos recursos, entrenamiento intensivo, y necesitas asegurarte de que el equipo que está construyendo esto esté trabajando estrechamente con marketing, porque eso sería un desafío, y la mayoría de ustedes con experiencia sabrán que no es realmente fácil hacer que el equipo de marketing trabaje junto con un equipo técnico. Así que solo ten en cuenta eso. Y el número tres son los sistemas híbridos. Ahora, esto combina lo mejor de ambos. El único problema es que esto requiere un aumento significativo en la sobrecarga de gestión y la complejidad de integración. Y cada vez que hay actualizaciones en un sistema, necesitas asegurarte de que el otro sistema sea compatible y esté funcionando juntos.

5. Strategies for Safe Usage of GenAI

Short description:

Hay una solución disponible para que cada organización use GenAI de manera segura. Implementar una capa de sensibilidad para la protección de datos, incluyendo la identificación de palabras clave y el filtrado de datos, puede ayudar a proteger la información sensible. Un estudio mostró hasta un 95% de precisión en la detección de patrones comunes de datos sensibles estructurados. Samsung implementó medidas de seguridad de IA robustas después de un incidente de fuga de código, incluyendo el despliegue de la matriz Samsung Knox y el sistema de preselección de código.

Así que, no hay una salida fácil. Sin embargo, creo que hay una solución disponible para cada organización. Y con eso, hay muchas cosas que cubrir, pero quería cubrir solo cinco. Así que voy a mirar primero la estrategia número uno. ¿Cómo te aseguras de que usas GenAI de manera segura? Así que lo primero es lo primero, lo hemos mirado. Necesitas implementar una capa de sensibilidad para la protección de datos. Ahora, esto básicamente es una capa que se aplica a documentos e inputs para proteger información sensible. Así que algunas de las mejores prácticas son la identificación de palabras clave, donde usas mapeo semántico para identificar palabras clave sensibles, por ejemplo, datos financieros, planes estratégicos, y aplicar verificaciones contextuales. En segundo lugar, aplicas el filtrado de datos para implementar un sistema que básicamente falle inputs, falle los inputs que contienen palabras clave sensibles antes de que sean procesados en NLLM. Y algunos de los estudios recientes muestran que hasta un 95 por ciento de precisión para detectar patrones comunes estructurados comunes de datos sensibles han sido encontrados. Esto fue un estudio y los resultados fueron realmente resultados del mundo real que vinieron de Amazon Macy y herramientas DLP similares para detectar patrones estructurados específicos.

Uno de los principales ejemplos que cubrí anteriormente es Samsung, donde esto fue bastante famoso, ya sabes, cuando digo famoso, en realidad fue bastante infame donde Samsung implementó una seguridad de IA robusta después de que hubo una gran fuga de código. Así que alguien en el equipo de desarrollo usó el código de su empresa en chatGPD para consultar sobre ciertos outputs, pero obviamente se filtró y cualquiera en el mundo podría acceder a eso. Así que nadie quiere eso. Pero Samsung ha hecho muchas cosas desde entonces. Así que han desplegado la matriz Samsung Knox para interacciones de IA. Ahora preseleccionan todo el código del sistema y la documentación técnica. Y también hay mucha detección de datos sensibles en tiempo real sucediendo. Así que han hecho muchas de estas cosas. Esto puede no ser posible para todas las empresas, pero definitivamente puedes aprender muchas lecciones de lo que Samsung tuvo que pasar.

6. Strategies for Secure Usage of GenAI

Short description:

Desarrollar una interfaz de usuario segura para interactuar con modelos de IA generativa. Implementar verificaciones de cumplimiento y formatear consultas antes de enviar solicitudes. Realizar evaluaciones de riesgos regularmente y desarrollar estrategias para abordar los riesgos identificados. Las empresas que implementan una gestión integral de riesgos de IA pueden reducir las vulnerabilidades de seguridad hasta en un 40%. Priorizar casos de uso ético de IA estableciendo políticas de transparencia y proporcionando capacitación en ética. La confianza es lo más importante.

Bueno, la segunda estrategia sería desarrollar una interfaz de usuario segura. Esto básicamente significa crear una UI que interactúe con los modelos de IA generativa. Ahora, lo importante es hacer que esta UI sea lo más fácil posible de usar, pero también hacerla a prueba de fallos por diseño para que incluso si alguien intenta cometer un error, el sistema esté diseñado de tal manera que no lo permita. Así que algunas de las mejores prácticas serían tener verificaciones de cumplimiento para que la UI deba formatear las consultas y realizar verificaciones de cumplimiento antes de enviar solicitudes a los LLMs. Y luego podrías mirar el formateo de entradas donde esencialmente conviertes documentos sensibles, por ejemplo, archivos de Excel a formatos de texto seguro, por ejemplo, CSV. Así que algo tan simple como eso podría realmente ayudar a reducir incidentes. Hubo un estudio realizado por GitHub donde encontraron que las empresas que han estado implementando estas mejores prácticas reportan una reducción del 27% en vulnerabilidades de seguridad.

Así que un gran estudio de caso aquí es Microsoft y MITRE, donde utilizan un marco de riesgo de IA. Esto ha sido diseñado en colaboración entre las dos empresas. Y básicamente, eso ha asegurado la alineación con las regulaciones globales de IA mientras se apoya un entorno de riesgo de innovación minimizado. La estrategia tres sería realizar evaluaciones de riesgos regularmente. Esto significa realizar evaluaciones asociadas con la tecnología de IA generativa para identificar vulnerabilidades. Las mejores prácticas que elegiría serían el modelado de amenazas para identificar amenazas potenciales específicas para aplicaciones de IA generativa y planes de mitigación, lo que básicamente significa desarrollar estrategias para abordar los riesgos identificados, incluidos los protocolos de respuesta a incidentes. Así que necesitas tenerlos de antemano, tener tantos como sea posible, porque cuando ocurre un incidente, no quieres estar luchando por soluciones o ideas. En ese momento, necesitas tener esos protocolos en su lugar. Los resultados en el mundo real son bastante alentadores para las empresas que implementan estas mejores prácticas. Ves que las empresas que implementan una gestión integral de riesgos de IA pueden reducir sus vulnerabilidades de seguridad hasta en un 40%. Morgan Stanley es un gran estudio de caso aquí. Así que han construido herramientas de IA personalizadas dentro de la empresa junto con la asistencia de OpenAI para básicamente ayudar a sus asesores a usar sus sistemas existentes como Outlook y Salesforce de manera segura, porque hay muchos datos saliendo de los sistemas de su empresa a través de este software. Y la tasa de adopción ha sido realmente alta.

Así que, por lo que tengo, mi entendimiento es que una de las razones es obviamente que han pasado mucho tiempo capacitando a sus asociados. Pero también la UI del sistema es realmente, realmente fácil de usar. Esa ha sido una de las grandes razones detrás de la adopción. La estrategia cuatro sería priorizar casos de uso ético de IA. Así que esto es, nuevamente, simplemente establecer pautas éticas para usar IA generativa en campañas de marketing. Para eso, diría que las mejores prácticas serían políticas de transparencia. Así que comunicar claramente cómo se utiliza la IA, la IA generativa en los esfuerzos de marketing y cómo se maneja la información del cliente.

7. Ethics Training and Continuous Education

Short description:

Proporcionar capacitación en ética para los empleados y establecer un marco ético de IA. Invertir en educación y capacitación continua, incluidas sesiones regulares y colaboración multifuncional. Las empresas que priorizan la protección de datos sensibles, interfaces fáciles de usar, evaluaciones de riesgos regulares, casos de uso ético de IA y la educación de los empleados se beneficiarán más.

En segundo lugar estaría la capacitación en ética, donde se proporciona formación a los empleados sobre consideraciones éticas al usar estas tecnologías. Un informe de KPMG encontró que las empresas que se centran en la confianza y la ética ven tasas de retención de clientes un 15 a 20% más altas, lo cual es genial. Al final del día, la confianza es lo más importante. Y una de las empresas que ha invertido mucho en esto, y he tenido la gran fortuna de experimentar este viaje yo mismo, es Salesforce, donde hay un claro marco ético de IA que establece pautas para el uso responsable de IA en marketing. Ahora, esto no solo se difunde entre los empleados para su comprensión, sino que muchas de estas también están integradas en su sistema. Así que la idea completa de, por ejemplo, la capa de confianza de Salesforce Einstein es que la confianza debe ser primordial. La confianza debe ser el primer principio a considerar al diseñar un sistema como este.

Y finalmente, la estrategia cinco sería el factor humano, donde se invertirá en educación y capacitación continua. Esto es solo para asegurar que el equipo de marketing esté educado sobre el uso seguro de las tecnologías de IA generativa. Ahora, mis mejores prácticas serían tener sesiones de capacitación regulares. La mayoría de las organizaciones las tienen. Algunas organizaciones lo llevan al punto en que, a menos que apruebes estas pruebas con una alta puntuación, realmente no puedes usar las herramientas. Así que creo que esa es una muy buena manera de asegurar que nada se filtre, nada se pase por alto. Y también la segunda mejor práctica sería tener colaboración multifuncional. Así que la IA generativa es una tecnología altamente técnica, pongámoslo de esa manera, que va a ser utilizada por cada persona en tu empresa. Así que obviamente tiene sentido tener esas colaboraciones cruzadas para que diferentes equipos puedan compartir su conocimiento, sus mejores prácticas, sus preocupaciones. Y como esta es una nueva tecnología, con el tiempo ese corpus de información se volverá crucial para las mejores prácticas generales de una empresa en el uso de IA generativa.

Así que para concluir esto, para resumir, las empresas tienen muchas oportunidades en este momento para aprovechar al máximo la IA generativa, para obtener ventaja competitiva, para aumentar la productividad. Sin embargo, hay muchas lagunas, muchos peligros, pero una empresa que invierte en tener una capa de protección de datos sensibles, una empresa que hace una UI que es realmente fácil de usar y a prueba de fallos al interactuar con LLMs, una empresa que realiza evaluaciones de riesgos regulares, prioriza casos de uso ético de IA e invierte en la educación continua de sus empleados. Creo que esas son las empresas que se beneficiarán más del uso de IA generativa sin meterse en problemas. Así que eso es todo y muchas gracias chicos por venir a mi presentación. Espero que lo hayan encontrado útil y no duden en contactarme si tienen alguna pregunta. Muchas gracias.