Categories
Analista de negocios de Salesforce Consultor de Salesforce Salesforce

¿Qué es el CRM Generativo y qué significa para su empresa?

Imagina que hoy eres un representante de ventas y te acaban de asignar una nueva cuenta. Cuántas horas le llevaría encontrar una descripción general de la empresa, ponerse al día sobre las últimas noticias de la empresa, encontrar los contactos adecuados o redactar un correo electrónico? Ahora, imagínese que su plataforma de gestión de relaciones con los clientes (CRM) hace todo esto en segundos, para que pueda afinar ese correo electrónico y enviarlo antes.

Esta es la promesa del CRM generativo, que combinará el poder de la inteligencia artificial (IA) generativa con los datos de sus clientes para que sus equipos sean más productivos. No es de extrañar que el 81% de los ejecutivos de todo el mundo sientan la urgencia de integrar la IA generativa en sus organizaciones.

«El CRM generativo es la versión e-bike del CRM», afirma Vala Afshar, Chief Digital Evangelist de Salesforce. «Se podría montar de forma tradicional, pero ¿por qué querrías volver a una bicicleta tradicional?»

Entonces, ¿qué es exactamente el CRM generativo y qué significará para su empresa?

El papel del CRM generativo

La IA generativa ha suscitado mucho debate e interés desde la presentación pública de ChatGPT en noviembre de 2022, que utiliza el aprendizaje automático y algoritmos para crear contenidos como texto, audio, imágenes e incluso código. Esta tecnología está preparada para remodelar el CRM en todos los departamentos, prometiendo ayudar a las empresas a crear de forma rápida y sencilla contenido generado por IA en las interacciones de ventas, servicios, marketing, comercio y TI.

ChatGPT

Para los equipos de atención al cliente, esto podría significar la automatización de la creación de chatbots más inteligentes y personalizados que puedan entender, anticipar y responder a los problemas de los clientes. De hecho, el 61% de los vendedores de todo el mundo afirma que la IA generativa les ayudará a atender mejor a los clientes. Si te dedicas al marketing, el CRM generativo puede ayudarte a generar rápidamente descripciones de productos precisas, convincentes y optimizadas para los motores de búsqueda

Obtén una vista completa de los copilotos de IA

¿Qué es el CRM generativo?

El CRM generativo combina el poder de la IA generativa con los datos de sus clientes para mejorar su productividad y eficiencia. Puede realizar innumerables funciones, como responder a consultas, preparar textos conversacionales, redactar mensajes de correo electrónico y, por último, puede incluso ayudar a abordar problemas relacionados con las enfermedades humanas y el medio ambiente. Cuantas más personas lo utilicen, más inteligente y rápido será.

Puede realizar esas tediosas tareas cotidianas, liberando tu tiempo para centrarte en proyectos más importantes. Y como puede explorar Internet y encontrar datos relevantes en cuestión de segundos, puede ayudar a elaborar mejores respuestas. Por ejemplo, en las interacciones de atención al cliente, puede redactar artículos de conocimiento basados en las interacciones actuales y pasadas.

Servicio de atención al cliente

«Realmente reduce la fricción de pasar de una idea a un primer borrador», afirma Jayesh Govindarajan, Vicepresidente Senior de Inteligencia Artificial y Aprendizaje Automático de Salesforce. «Eso podría ser escribir un documento basado en seis reuniones que has tenido. O podría ser resumir varios flujos de conversación para buscar uno o dos puntos de vista que pueda utilizar para mejorar su enfoque»

¿Cómo puede el CRM generativo impulsar la productividad, la eficiencia y las relaciones con los clientes?

Cada día, pasamos horas realizando tareas mundanas sólo para hacer nuestro trabajo. Examinamos datos e investigaciones, nos damos cabezazos contra la pared tratando de idear un nuevo anuncio para una nueva campaña de marketing social, escribimos y reescribimos lo que creemos que es el correo electrónico perfecto para dirigirse a un posible cliente y nos esforzamos por encontrar el equilibrio adecuado en las conversaciones con clientes enfadados. ¿Qué pasaría si dispusieras de una herramienta que agilizara todo eso, independientemente del sector o departamento en el que trabajes?

Trabajar en equipo

Con herramientas CRM generativas, como Einstein Copilot, esto pronto será posible. Einstein Copilot es un nuevo asistente conversacional generativo potenciado por IA, integrado a la perfección en el flujo de trabajo para impulsar importantes ganancias de productividad. Estas son algunas de las formas en que puede aumentar la productividad, la eficiencia y las relaciones con los clientes

1. Reducir-tiempo-a-valor. Reducir el tiempo de obtención de valor

Aunque la IA existe desde hace tiempo y Einstein de Salesforce ya ofrece más de 200.000 millones de predicciones diarias, los productos de IA generativa están ayudando a personas de todos los sectores a trabajar de forma más eficiente. Entonces, ¿cómo puede esto afectarle y ayudarle, especialmente en la creación y el mantenimiento de relaciones con los clientes?

«En última instancia, el superpoder de la IA generativa para CRM es reducir el tiempo de creación de valor. La tecnología ayudará a filtrar el ruido que muchos de nosotros encontramos en Internet», afirma Afshar. El CRM generativo será lo suficientemente inteligente como para saber qué buscar si se le hacen las preguntas adecuadas.

2. Liberar humanos para trabajos de alto valor

Supongamos que estás intentando conseguir un nuevo gran cliente. Te pasas horas revisando datos para reforzar tu argumento de venta, y acaba siendo obsoleto. A continuación, recorres tu red y el sitio web de la empresa tratando de encontrar a esa persona perfecta para ayudarte a poner el pie en la puerta, sólo para descubrir que dejó la empresa dos semanas antes. Todas estas son tareas repetitivas y mundanas en las que has malgastado un tiempo precioso en lugar de construir una nueva relación

«Piense en todas las tareas típicas que se realizan en un CRM – muchas de ellas se repiten y automatizan», dijo David Berthy, Director Senior de Salesforce Futures. «La idea de acelerar estas cosas le hace más rápido y productivo. De este modo, tendrá más tiempo para trabajar en la creación de relaciones con las personas a las que vende»

3. AI en la que puedes confiar 

La seguridad y la privacidad serán la clave de la CRM generativa, que se basará en los principios de la IA de confianza que se aplican desde hace tiempo, con directrices que aborden específicamente los problemas de la IA generativa

Mientras que algunos modelos de IA generativa se basan únicamente en datos públicos, el CRM generativo se basará en datos seguros y privados de los clientes. Esa es una parte clave de lo que hará que la tecnología sea impactante para las empresas – y también por qué la confianza es una cuestión tan crítica.

«Para funcionar en la empresa, la tecnología tiene que basarse en los datos disponibles en esa organización. Ser capaces de combinar datos públicos y privados es lo que hace que la experiencia de nuestros clientes sea más fiable y valiosa», afirma Govindarajan

Saluda a Einstein Copilot

Tu asistente conversacional de IA de confianza para CRM da a todos el poder de hacer el trabajo más rápido. Es un cambio de juego total para su empresa.



¿Qué aspecto tendrá el CRM generativo en acción?

Aquí hay más ejemplos de cómo se puede poner en práctica el CRM generativo:

1. Servicio

El CRM generativo puede crear artículos de conocimiento, mejorar los tiempos de respuesta, analizar los comentarios de los clientes y responder a las preguntas más frecuentes. Imagina que mantienes un chat virtual con un cliente. Mientras le envía un mensaje, Einstein busca en miles de páginas web y datos para ayudarle a elaborar la mejor respuesta. Como agente, puedes editar la respuesta para asegurarte de que suena como si estuvieran chateando con una persona y no con una máquina, sino con una persona, que es lo que son.

2. Ventas

Un CRM generativo será capaz de mejorar la generación de leads, predecir futuras tendencias de ventas, analizar datos de ventas y crear una comunicación personalizada. Por ejemplo, encontrará la información más actualizada sobre una empresa y podrá dirigirse a los contactos adecuados dentro de ella. A continuación, puede redactar un correo electrónico y ofrecerle las últimas noticias, planes y cambios de personal para ayudarle a prepararse para una reunión.

Cuidado con los clientes

3. Marketing

El CRM generativo puede diseñar anuncios visualmente atractivos y personalizados para dirigirse a públicos específicos en función del historial de navegación y compras, construir modelos predictivos para prever el comportamiento de compra de los clientes y crear campañas de influencers. Por ejemplo, van a abrir una nueva zapatería en su centro comercial. Generative CRM puede diseñar una promoción específica para las redes sociales que describa esa zona y, a continuación, dirigirse a los clientes con más probabilidades de visitar esa tienda basándose en compras anteriores o en sus publicaciones y comentarios en las redes sociales.

«Este es el poder de cómo la IA generativa utilizará los datos para ayudar a guiarnos en tiempo real», dijo Afshar. «El Santo Grial definitivo es el uso prescriptivo de la analítica, el poder generativo de un CRM en tiempo real»

Con el CRM generativo, su carga de trabajo se agiliza, sus capacidades se amplifican y su productividad alcanza nuevas cotas. Con Einstein Copilot, puede ofrecer a sus equipos un asesor de confianza justo en el flujo de trabajo. De este modo, independientemente del sector y la función, puede acelerar las tareas empresariales de cada equipo con IA en la que puede confiar.

¿Listo para dar el siguiente paso con generative CRM?

Para obtener más información sobre cómo Salesforce puede ayudarle a sacar el máximo partido de su IA, consulte aquí.

Categories
Discover Magazine Enterprise Software Inteligencia Artificial Salesforce

HIVE: Aprovechamiento de la retroalimentación humana para la edición visual didáctica

HIVE ha sido aceptado en CVPR 2024.

Otros autores son: Chia-Chih Chen, Ning Yu, Zeyuan Chen, Huan Wang, Silvio Savarese, Stefano Ermon, Caiming Xiong

Hemos visto el éxito de ChatGPT, que incorpora la retroalimentación humana para alinear el texto generado por grandes modelos lingüísticos con las preferencias humanas. ¿Es posible alinear los comentarios humanos con modelos de edición de imágenes instructivas de última generación? Ahora, los investigadores de Salesforce han desarrollado HIVE, uno de los primeros trabajos para ajustar los modelos generativos basados en difusión con la opinión humana. 

Antecedentes

Gracias a las impresionantes capacidades de generación de los modelos generativos de texto a imagen (por ejemplo, Stable Diffusion), la edición de imágenes didácticas (por ejemplo, InstructPix2Pix) se ha convertido en uno de los escenarios de aplicación más prometedores. A diferencia de la edición tradicional de imágenes, en la que se necesitan tanto la entrada como la leyenda editada, la edición instructiva de imágenes sólo requiere instrucciones legibles por el ser humano. Por ejemplo, los métodos clásicos de edición de imágenes requieren una leyenda de entrada «un perro está jugando a la pelota» y una leyenda editada «un gato está jugando a la pelota». En cambio, la edición instructiva de imágenes sólo necesita instrucciones como «cambia el perro por un gato». Esta experiencia imita la forma en que los humanos realizan la edición de imágenes de forma natural.

InstructPix2Pix afina una difusión estable preentrenada curando un triplete de la imagen original, la instrucción y la imagen editada, con la ayuda de la edición de imágenes GPT-3 y Prompt-to-Prompt.

Aunque se obtienen resultados prometedores, el proceso de generación de datos de entrenamiento de InstructPix2Pix carece de alineación explícita entre las instrucciones de edición y las imágenes editadas.

Motivación

Hay una necesidad apremiante de desarrollar un modelo que alinee la retroalimentación humana con modelos basados en difusión para el problema de edición de imágenes instructivas. Para grandes modelos de lenguaje como InstructGPT y ChatGPT, a menudo aprendemos primero una función de recompensa para reflejar lo que a los humanos les importa o prefieren en la salida de texto generada, y luego aprovechamos algoritmos de aprendizaje de refuerzo (RL) como la optimización de política proximal (PPO) para afinar los modelos. Este proceso suele denominarse aprendizaje por refuerzo con retroalimentación humana (RLHF, por sus siglas en inglés).

El principal reto es cómo aprovechar el RLHF para afinar los modelos generativos basados en la difusión. Esto se debe a que aplicar PPO para maximizar las recompensas durante el proceso de ajuste puede resultar prohibitivamente caro debido a los cientos o miles de pasos de eliminación de ruido necesarios para cada imagen muestreada. Además, incluso con métodos de muestreo rápido, sigue siendo difícil propagar la señal de gradiente a los parámetros de la U-Net.

Método

La propuesta HIVE consta de tres pasos.

  1. Entrenamiento supervisado instructivo. Seguimos el método de InstructPix2Pix para recopilar los datos de entrenamiento y afinar el modelo de difusión. Específicamente, realizamos el ajuste fino supervisado instruccional en el conjunto de datos que combina nuestros datos de entrenamiento 1.1M recién recogidos y los datos de InstructPix2Pix. Se adopta un método de coherencia de ciclo propuesto para mejorar la escala del conjunto de datos.
  2. Para cada par de imagen de entrada e instrucción de edición, pedimos a los anotadores humanos que clasifiquen las salidas variantes del modelo de ajuste fino del paso 1, lo que nos proporciona un conjunto de datos de aprendizaje de recompensa. Utilizando el conjunto de datos recopilados, entrenamos un modelo de recompensa basado en BLIP (RM) que refleja las preferencias humanas.
  3. Estimamos la recompensa para cada dato de entrenamiento utilizado en el paso 1, e integramos la recompensa para realizar el ajuste fino del modelo de difusión de retroalimentación humana utilizando nuestros objetivos propuestos. El enfoque de ajuste fino propuesto es eficiente desde el punto de vista computacional y ofrece costes similares en comparación con el ajuste fino supervisado.

Experimentos

Al poner a disposición pública todos los datos de entrenamiento y evaluación, evaluamos nuestro método utilizando dos conjuntos de datos: un conjunto de datos sintético con 15K pares de imágenes de InstrcutPix2Pix y un conjunto de datos de 1K auto-recolectados con pares de imágenes-instrucciones reales. En el caso del conjunto de datos sintético, seguimos el ejemplo de InstructPix2Pix y trazamos las compensaciones entre la similitud de imagen CLIP y la similitud CLIP direccional. Para el conjunto de datos 1K, llevamos a cabo un estudio de usuarios determinado por los principales votos.

Resultados clave:

Demostramos que HIVE supera sistemáticamente a InstructPix2Pix tanto con el modelo oficial como con nuestro modelo replicado utilizando nuestro conjunto de datos de entrenamiento ampliado.

Modelo replicado utilizando nuestro conjunto de datos de entrenamiento ampliado.

Comparaciones entre InstructPix2Pix(IP2P) y HIVE. Ilustración de las compensaciones entre la coherencia con la imagen de entrada y con la edición. HIVE logra una mayor similitud en ambas métricas que IP2P.
(Izquierda) Estudio de usuario de comparación entre InstructPix2Pix el modelo oficial(IP2P-Official) y nuestro modelo replicado utilizando nuestro conjunto de datos de entrenamiento ampliado(IP2P-Ours). Nuestro modelo replicado obtiene un 30% más de votos.(Derecha) Estudio comparativo entre IP2P-Ours y HIVE. HIVE obtiene un 25% más de votos.
Más ejemplos de comparación entre IP2P-Oficial, IP2P-Ours y HIVE

Explore More

arxiv: https://arxiv.org/abs/2303.09618 

Código y datos: https://github.com/salesforce/HIVE 

Web: https://shugerdou.github.io/hive 

Contacto: shu.zhang@salesforce.com, x.yang@salesforce.com, yihaofeng@salesforce.com.

Categories
Consultor de Salesforce Enterprise Software Salesforce

Sea breve: Cómo escribir líneas de asunto para correos electrónicos de ventas que realmente se abran

Si usted es como la mayoría de los profesionales de ventas, probablemente todavía depende en gran medida del correo electrónico – y eso no va a desaparecer. Incluso con la llegada de las redes sociales y otras plataformas de mensajería, el correo electrónico sigue siendo uno de los principales canales de prospección. De hecho, la empresa de investigación McKinsey ha descubierto que el correo electrónico es 40 veces más eficaz para captar clientes que las redes sociales. Dicho esto, hay una pregunta acuciante a la que muchos de nosotros nos enfrentamos cada vez que escribimos uno.

El correo electrónico es el canal más eficaz para captar clientes

¿Cuáles son las líneas de asunto que realmente consiguen que la gente abra el mensaje?

He hecho una lista de las líneas de asunto de correo electrónico para ventas que me han funcionado a lo largo de los años. Estas no solo se abren, sino que la mayoría de las veces obtienen la respuesta que necesito para avanzar en el trato. Te guiaré a través de algunas de estas líneas de asunto ganadoras, y por qué y cómo funcionan.

Lo que aprenderás:

Únete al movimiento Salesblazer

Estamos construyendo la mayor y más exitosa comunidad de profesionales de ventas, para que puedas aprender, conectar y crecer. 


¿Qué hace una buena línea de asunto de correo electrónico para ventas?

Una buena línea de asunto de correo electrónico corta el ruido y llama la atención. Un mal asunto suele ser ignorado, eliminado o, lo que es peor, enviado directamente a la carpeta de correo no deseado, lo que puede bloquear el envío de futuros mensajes de correo electrónico a esa persona

La línea de asunto de su correo electrónico debe destacar, pero también debe ser realista. Para aumentar las posibilidades de apertura, asegúrese de que su línea de asunto es auténtica y positiva, y no excesivamente promocional o de ventas. En breve te daré algunos ejemplos de cómo escribir una buena línea de asunto

(Volver al principio)

¿Por qué el asunto es importante para las ventas?

La línea de asunto es importante porque es lo primero que ve la gente cuando decide abrir un correo electrónico. Como vendedor, es la forma de poner un pie en la puerta para una conversación más amplia. Así que, tanto si envías un correo en frío como si haces un seguimiento de un cliente potencial que ha desaparecido, tu línea de asunto debe despertar interés

Hablo con líderes de ventas y propietarios de negocios todo el tiempo, y una cosa está clara: nadie necesita más correos electrónicos. Lo que necesitan son mejores correos electrónicos. Las líneas de asunto genéricas están a la orden del día, y no prometen mucho más que un insulso argumento de venta. Pero una línea de asunto única y que llame la atención insinúa algo interesante en el cuerpo del mensaje, sobre todo si ofrece una solución adaptada a las necesidades de su cliente potencial

(Volver al principio)

Cómo escribir líneas de asunto para ventas

Independientemente de si estás enviando ese primer correo electrónico en frío o haciendo un seguimiento de un cliente potencial, la brevedad, la personalización y un sentido de urgencia son la clave para elaborar una gran línea de asunto. Un poco de creatividad, e incluso algo de frivolidad, también pueden ayudarte a destacar en una bandeja de entrada abarrotada. Dicho esto, es importante hacer un seguimiento de las tasas de apertura y respuesta de cada correo electrónico que envíe. Debe revisar y analizar periódicamente los datos para identificar lo que funciona y lo que no, especialmente si envía correos electrónicos de ventas a gran escala

Aquí tienes unos cuantos consejos a tener en cuenta cuando escribas líneas de asunto para ventas:

  • Capte la atención.

    Posiblemente lo más importante que debe hacer su asunto es destacar entre la multitud. Ofrezca a su cliente potencial algo que tenga en mente o sea relevante para él: una oportunidad concreta, noticias de su sector o elogios por un proyecto en el que haya trabajado recientemente

  • Hazlo breve y dulceCherilynn Castleman, socia directora de CGI Executive Coaching, recomienda utilizar sólo seis o siete palabras. Otra escuela de pensamiento dice que hay que limitarse a 50 caracteres o menos. En cualquier caso, sólo tienes unos segundos para captar la atención del lector y conseguir que abra el mensaje. Recuerde, si alguien no sabe quién es usted, no puede permitirse el lujo de ser «mono» En lugar de eso, sea sucinto, centrado y vaya directo al grano.
  • Por favor, envíe su mensaje de forma clara y concisa
  • Sea positivo. Céntrese en crear oportunidades y valor. Una línea de asunto que suelo usar es: «Generando más ventas en el Q2» Es positivo, oportuno y conciso. Dependiendo del destinatario, podría utilizar «Q2» o «2H24»; los empresarios tienden a estar muy pendientes del momento, así que a veces miro unos meses más adelante en el asunto. De este modo, les hablo de una oportunidad que pueden aprovechar ahora mismo para labrarse un futuro brillante.
  • Los empresarios tienden a estar muy pendientes del momento, así que a veces miro unos meses más adelante en el asunto
  • Personalízalo.Utiliza una línea de asunto personalizada que trate a tu cliente potencial como un individuo y no como un número. «A nadie le gusta ser tratado como un nombre más en una lista», afirma Castleman
  • Hágalo oportuno y relevante. Asegúrese de que su línea de asunto aborda preguntas clave que tiene el prospecto, como: «¿por qué ahora?» «¿por qué yo?» y «¿por qué mi sector?» Esto le ayudará a ir directo al grano para que aproveche al máximo el tiempo de todos.
  • Enfóquese en un problema.Cada correo electrónico que envíe debe abordar el problema de un cliente. Y su línea de asunto, combinada con el texto del correo electrónico, debe ofrecer una solución.
  • Enfóquese en el problema

Ahora que hemos hablado de lo que hace que una línea de asunto de ventas sea buena, y por qué son importantes, veamos algunos ejemplos.

Ahora que hemos hablado de lo que hace que una línea de asunto de ventas sea buena, y por qué son importantes, veamos algunos ejemplos

(Volver al principio)

31 tipos de líneas de asunto de correo electrónico de ventas

Estos ejemplos de líneas de asunto se dividen en cuatro categorías diferentes. Puede editarlos para adaptarlos a sus necesidades específicas, teniendo en cuenta los principios descritos anteriormente.

Sobre todo, asegúrese de personalizar cualquier nombre de destinatario o empresa y los plazos. La mayoría del software de correo electrónico puede manejar esto para usted de forma automática, pero es algo que siempre debe volver a comprobar. No hay nada como una línea de asunto «Hola [Nombre], ¡tengo una oferta de [Industria] para ti!» para asegurarse de que su mensaje se envía inmediatamente a la carpeta de spam.

Subject lines for cold emails

Ah, el correo electrónico en frío. A la mayoría de los representantes no les gusta escribirlos y a muchos clientes potenciales no les gusta recibirlos, pero son un primer paso común en el proceso de prospección. El objetivo es iniciar la conversación. Que sea cálida, relevante y directa

1. {Nombre-de-la-empresa} + {{Nombre-del-prospecto}

>

Por qué funciona:< Adaptar tu línea de asunto a una persona específica de una empresa específica implica que ya estás pensando en el negocio único de tu prospecto. Manténgalos enganchados abordando un tema o problema que les importe, y hágalo al principio de su copia de correo electrónico.

2. {Objetivo o problema}

Por qué funciona:< Empezar con un problema que quieres resolver para tu prospecto capta su atención y muestra que estás en sintonía con sus necesidades.

Ejemplo: Motivar a tu equipo de ventas

3. {Interés o conexión compartida}, {un tema o problema con el que están familiarizados}, {nueva estrategia/solución}

Por qué funciona:< En pocas palabras, puedes establecer una conexión y provocar una mejor. Encadena tres palabras o frases asociadas separadas por comas: un interés que compartas con el cliente potencial, un problema y una solución. Es relevante, demuestra que entiendes los problemas a los que se enfrentan y ofrece un siguiente paso de forma sucinta

Ejemplo: ChatGPT, pérdida de productividad, redacción de correos electrónicos de ventas

4. {Conexion-mutua-o-referido} me ha recomendado que me ponga en contacto

Por qué funciona:< Una referencia en la línea de asunto genera confianza y credibilidad en los clientes potenciales y puede hacer que sean más propensos a responder. Una advertencia: asegúrate de que la referencia es legítima. No hagas esos trucos de LinkedIn. Eso hará que te bloqueen.

5. {Una palabra}

Por qué funciona:< Utilizar una sola palabra como "Gracias", "Actualización" o "¿Pensamientos?" a veces es lo suficientemente intrigante como para aumentar sus tasas de apertura y captar la atención en un mar de líneas de asunto más largas. Sólo asegúrese de que tiene algo igualmente intrigante para seguir con el cuerpo de su correo electrónico.

Ejemplo: ¿Qué te parece?

6. {Inserte una pregunta sobre un tema oportuno o específico del sector}

Por qué funciona:< Hacer una pregunta -especialmente sobre un problema que afecte al sector del cliente potencial- demuestra que valora su experiencia. El golpe de ego a menudo gana compromiso desde el principio

Ejemplo: ¿Cómo gestionas las tasas de carritos abandonados?

7. ¿Serás mi plus-uno?

Por qué funciona:

Esto le pide a un cliente potencial que le acompañe en un viaje y le hace sentirse incluido

8. X cosas que hacen los {prospectos-inteligentes}

Por qué funciona:

Éste se basa en el deseo del prospecto de ser el mejor en lo que hace. En el cuerpo del correo electrónico, asegúrese de pagar la promesa mediante la descripción de acciones específicas que deben tomar.

Por qué funciona

Por qué funciona?

9. ¿Puedo ayudarle? ¿Puedo ayudarle?

Ejemplo: ¿Puedo ayudar con soluciones de retención?

Por qué funciona:

Ofrecer ayuda de inmediato le dice al prospecto que usted está de su lado y se centra en ofrecer soluciones. De hecho, el informe State of Sales reveló que el 87% de los compradores empresariales esperan que los representantes de ventas actúen como asesores de confianza

10. ¿Buscando aportaciones? ¿Busca información?

Por qué funciona:< Pedir opiniones permite a su cliente potencial saber que está dispuesto a escuchar, lo que inspira confianza y hace que sea más probable que comparta puntos de vista que le ayudarán en el proceso de ventas. Una advertencia: sólo pregunte esto si está realmente dispuesto a recibir comentarios sinceros (y potencialmente críticos)

(Volver al principio)

Impulsa la tubería más rápido con una única fuente de verdad

Descubre cómo Sales Cloud utiliza los datos y la IA para ayudarte a gestionar tu pipeline, construir relaciones y cerrar acuerdos rápidamente.




Líneas de asunto para los correos electrónicos de seguimiento

Los correos electrónicos de seguimiento se utilizan después de que usted ya se haya puesto en contacto -a través de un correo electrónico en frío, una llamada telefónica, un mensaje de LinkedIn u otro canal- y el cliente potencial haya enviado una respuesta inicial y luego se haya callado. Escribir este tipo de correo electrónico es un acto de equilibrio. Para aumentar las posibilidades de apertura, John Barrows, CEO de SellBetter by JB Sales, sugiere reiterar el valor y la conexión sin ser insistente o repetitivo. En la medida de lo posible, deja claro que entiendes sus necesidades y que tienes información valiosa que compartir

1. {Nombre-de-la-empresa} <> {Nombre-de-la-empresa}

Por qué funciona:< Esta línea de asunto mantiene a su empresa en primer plano. También sugiere una relación mutuamente beneficiosa. ¡Sin embargo, si el cliente potencial quiere mantener la relación, tiene que comprometerse.

Por qué funciona!

2. Sus competidores están haciendo esto para rebotar …

Por qué funciona:< Esta línea de asunto hace varias cosas. Aborda un problema relevante y despierta la curiosidad sobre lo que están haciendo los competidores para resolverlo, a la vez que aprovecha un poco el espíritu competitivo. "Uno de mis clientes aumentó su tasa de apertura del 3% al 12% con esta línea de asunto", me dijo Castleman

3. ¿Puedo ser honesto?

Por qué funciona:<  "Según mi experiencia, una pregunta provocativa suele dar mejores resultados que los titulares con declaraciones", afirma Castleman. Esta introducción invita a los lectores a entrar y crea una sensación de confianza. También sugiere que el correo electrónico contiene algo de "té"

4. {X} opciones para empezar

Por qué funciona:< A los prospectos les encanta una lista corta de elementos procesables que puedan acercarlos a la implementación de su solución. Dentro del correo electrónico, mantenga la lista de opciones clara y breve:

«Llámeme para solicitar un presupuesto» o «Envíeme un correo electrónico con sus tres preguntas principales sobre el producto»

5. «Yo otra vez, lo sé… pero hay muchas cosas guays que están pasando». Yo otra vez, lo sé… pero están pasando muchas cosas chulas

Por qué funciona:< Utilizar formas descaradas para mantener una conversación puede ser desarmante y ayudarte a destacar entre la multitud. ¡Esta línea de asunto llamó la atención de Castleman porque reconocía que el representante de ventas estaba volviendo a enviar un correo electrónico al cliente potencial ("Lo sé"), pero también le hizo reír y querer saber más.

Por qué funciona!

6. He pensado en lo que dijiste…

Por qué funciona:

Esto le recuerda a su prospecto que usted escuchó atentamente lo que dijo durante las conversaciones iniciales y sugiere que usted tiene algo de valor que ofrecer.

Por qué funciona:

7. ¿Te he perdido?

Por qué funciona:< Descubrí esto mientras probaba formas de volver a captar clientes potenciales después de una interrupción en la comunicación, y me llevó a una tasa de apertura del 47%, convirtiéndolo en mi nuevo truco mágico. Es auténtico, conversacional y un poco vulnerable

8. ¿Sigue interesado?

Por qué funciona:< Esto pone la pelota en el tejado del prospecto a la vez que evita la prepotencia, recordándoles que estaban interesados en lo que ofrecías. A menudo, me doy cuenta de que hacen clic para recordar de qué hablé y por qué despertó su interés

9. ¿Ha renunciado a la {iniciativa}? ¿Has renunciado a {iniciativa}?

Por qué funciona:< Esta viene de Chris Voss, CEO y autor de "Nunca dividas la diferencia" Nadie quiere sentir que está renunciando a algo en lo que ya ha invertido tiempo. Esto se basa en el reflejo de culpa/vergüenza, que puede ser efectivo, pero no lo uses más de una vez o te alejarás de ellos

(Volver al principio)

Líneas de asunto para prospectos que no han respondido nada

Algunos prospectos nunca obtienen una respuesta, pero eso no siempre se debe a una falta de interés. Si ha llegado a esta etapa, vuelva a enfatizar su voluntad de conectarse y ayudar, para que cuando un prospecto esté listo, sea usted con quien hable. Además, poner el encanto puede conseguir una risa y una respuesta.

1. Un vídeo rápido para ti

Por qué funciona:< Un reciente informe de Wistia descubrió que el vídeo es una forma eficaz de generar y nutrir clientes potenciales cualificados. Comparte un enlace a un breve vídeo tuyo que se dirija directamente a tu cliente potencial y le haga saber por qué estás tan ansioso por conectar. Es personal, y eso llega a casa.

2. Nuestra llamada la semana que viene …

Por qué funciona:< Si usted no tiene una llamada en los libros con un prospecto MIA, la mejor manera de programar una es proceder como si ya fuera un plan. Sentirán curiosidad por la reunión ("¿Me he olvidado?") y harán un seguimiento para aclararlo. Esto te da la oportunidad de engancharlos con algo de relevancia y valor inmediatos.

3. Invitación a la reunión: {fecha}

Por qué funciona:< Una invitación hace que el prospecto se sienta especial, y una fecha preseleccionada les da algo concreto a lo que responder. Si no están disponibles, pero están interesados, es probable que respondan con un "No estoy libre ese día, pero puedo hacer X día en su lugar"

4. {¿Pregunta inesperada}?

Por qué funciona:< En un mar de correos electrónicos, un poco de frivolidad puede ayudarle a destacar. Hacer una pregunta absurda aumentará sus tasas de apertura. Sólo asegúrese de ofrecer algún valor relevante en el propio correo electrónico. Por ejemplo, puedes remitirles a un vídeo para que el mensaje no parezca un señuelo

Ejemplo: ¿Contraseña de Netflix?

5. Reaching out one last time (LMK-if-i-can-help)

Por qué funciona:

Este enfoque es poco agresivo e invita (no presiona) al cliente potencial a responder. También añade un sentido de urgencia: Se les pide que le digan por qué se han quedado a oscuras, lo que le ayudará a elaborar una respuesta que les comprometa en sus términos.

6. ¿Decir que no?

Por qué funciona:< Esto funciona como una "interrupción del patrón" Su cliente potencial no se espera este lenguaje, y provoca la respuesta: "¿A qué estoy diciendo que no?" Esto a menudo conduce a aperturas para que puedan obtener más información.

(Volver al principio)

Líneas de asunto para las convocatorias de reunión

La primera vez que contactas con alguien, tu trabajo no es concertar una reunión – Ese es el gran error que comete la mayoría de la gente. Tu trabajo con el primer correo electrónico es captar su interés. Si envías un enlace de calendario o dices: «¿Podemos quedar el martes 15 minutos?» Suenas igual que los demás. En lugar de eso, debes intentar despertar su interés primero, y concertar la reunión más tarde.

1. ¿Quieres intercambiar ideas sobre {tema}? ¿Quieres intercambiar ideas sobre {tema}?

Por qué funciona:< El objetivo es captar la atención de su cliente potencial con un tema que ya sabe que le interesa. Es breve y directo, pero lo suficientemente abierto como para que no sea un argumento de venta obvio.

Por qué funciona?

2. ¿Cómo va el progreso de {proyecto}?

Por qué funciona:< De forma similar a la línea de asunto anterior, ésta pretende captar su atención haciendo referencia a un proyecto específico que sabes que está en marcha. Es una buena forma de hacer que alguien mire dos veces porque es relevante y oportuno.

3. Miremos los objetivos del próximo trimestre

Por qué funciona:< Esta línea de asunto se basa en lo que he comentado antes: que los líderes y propietarios de empresas suelen estar ocupados con asuntos del momento, pero también buscan siempre formas de hacer crecer su negocio y planificar el futuro.

Por qué funciona:

4. Pregúntame cualquier cosa sobre {tema} – ¡para eso estoy aquí!

Por qué funciona:

Este mensaje está un poco a la izquierda del centro, por lo que es probable que llame la atención del destinatario. Si añades un tema específico que les interese, conviertes una línea de asunto que roza el spam en algo que llama la atención y es personalizado. También le ayuda a posicionarse como un asesor de confianza en su área de especialización, lo que puede generar confianza entre los clientes potenciales

5. Hablemos de su próximo evento. Hablemos de su próximo evento, {título del evento} …

Por qué funciona:< De nuevo, éste llama la atención por su especificidad. Sólo funciona si haces referencia a un evento específico en el que sabes que participa el destinatario.

Por qué funciona

6. Hola {nombre}, vi tu presentación en {evento} …

Por qué funciona:< ¿Qué hay mejor que hacer referencia a un evento real, próximo o reciente? Haz saber a tu destinatario que le has visto dar una presentación, que te ha llamado la atención y que te gustaría seguir hablando de ello. La adulación llega muy lejos, siempre que sea auténtica.

(Volver al principio)

Qué hacer y qué no hacer para escribir líneas de asunto de email de ventas

Por último, aquí tienes una hoja de trucos de lo que debes y no debes hacer para ayudarte a recordar los puntos clave anteriores. Está dividida en cosas que debe hacer y cosas que definitivamente no debe hacer, para una referencia rápida y fácil.

Haz…

  • Ser personal
  • Ser auténtico
  • Tu investigación
  • Haz un esfuerzo
  • Manténgalo sucinto

No…

  • Ser un cliché (o genérico}
  • Ser agresivo
  • Haz lo que hacen los demás
  • Sonar vendedor o empezar con un argumento de venta
  • Sugerir una reunión de buenas a primeras

(Volver al principio)

Otros consejos para la línea de asunto

También es importante tener en cuenta cómo se verá tu correo electrónico en un dispositivo móvil. Como director general de Everybody Works In Sales, viajo mucho. Cuando viajo, abro la mayoría de mis correos electrónicos en mi teléfono. Si alguien me envía un correo electrónico con un asunto largo, estoy seguro en un 90% de que se trata de un argumento de venta. Así que, si quieres que abran tu correo electrónico, que sea breve.

Utiliza el lenguaje adecuado con la persona a la que envías el correo electrónico. Por ejemplo, la forma de dirigirse a un jefe de ventas será muy diferente de la forma de dirigirse a un director financiero o a alguien que trabaja en TI. Entender qué «idiomas» se hablan en los distintos ámbitos debe aplicarse a la línea de asunto de su correo electrónico, no solo al cuerpo.

Los mensajes de correo electrónico deben estar redactados en el idioma correcto

(Volver al principio)

Crea mejores líneas de asunto para emails que se abran

La mejor manera de curar líneas de asunto de correo electrónico ganadoras es probarlas y recopilar datos para medir su éxito. Los gustos y las tendencias cambian todo el tiempo, así que recuerde que lo que funcionó la semana pasada no necesariamente funcionará la próxima. Establezca un proceso y una estructura para probar constantemente sus líneas de asunto y analizar las tasas de apertura y la participación en sus mensajes de correo electrónico. Esto le mostrará cómo se está desempeñando para que pueda ajustar su estrategia según sea necesario, adaptarse a los comportamientos de la audiencia, y ver mejores resultados.

Cuidado con los correos electrónicos

Nivela tu juego con los conocimientos de conversación de la IA

Vende de forma más inteligente gracias a Einstein Conversation Insights, con señales de los clientes y orientación sobre los siguientes pasos para ayudarte a cerrar.



Categories
Consultor de Salesforce Enterprise Software Salesforce

IA de la A a la Z: Glosario de IA generativa para líderes empresariales

Este glosario de IA generativa se actualizará periódicamente.

Términos de IA generativa por temas

Términos básicos de la IA

Formación y Aprendizaje de Inteligencia Artificial

Antropomorfismo

La tendencia de las personas a atribuir motivaciones, emociones, características o comportamientos humanos a los sistemas de IA. Por ejemplo, puedes pensar que el modelo o el resultado es «malo» basándote en sus respuestas, aunque no sea capaz de tener emociones, o potencialmente crees que la IA es sensible porque es muy buena imitando el lenguaje humano. Aunque pueda parecerse a algo familiar, es esencial recordar que la IA, por muy avanzada que sea, no posee sentimientos ni conciencia. Es una herramienta brillante, no un ser humano.

  • Lo que significa para los clientes: En el lado positivo, los clientes podrían sentirse más conectados o comprometidos con los sistemas de IA que muestran características similares a las humanas, lo que lleva a una experiencia más cercana y personalizada. En el lado negativo, los clientes podrían sentirse ofendidos o molestos ante respuestas que consideren groseras o poco atentas.
  • Los sistemas de inteligencia artificial pueden ayudar a los clientes a mejorar su calidad de vida
  • Lo que significa para los equipos: Los equipos deben permanecer atentos a este concepto para gestionar las expectativas de los usuarios y asegurarse de que estos comprenden las capacidades y limitaciones de los sistemas de IA.
  • Los sistemas de inteligencia artificial pueden ser muy útiles para los clientes

(Volver al principio)

Inteligencia artificial (IA)

La IA es el concepto general de hacer que las máquinas piensen y actúen como los humanos. La IA generativa es un tipo específico de IA (más información a continuación)

  • Qué significa para los clientes: La IA puede ayudar a sus clientes prediciendo lo que probablemente quieran a continuación, basándose en lo que han hecho en el pasado. Les ofrece comunicaciones y recomendaciones de productos más relevantes, y puede recordarles las próximas tareas importantes. (Por ejemplo, «¡Es hora de volver a hacer un pedido!»). La Inteligencia Artificial hace que su experiencia con su empresa sea más útil, personalizada, eficiente y sin fricciones
  • Qué significa para los equipos: La IA ayuda a tus equipos a trabajar de forma más inteligente y rápida mediante la automatización de tareas rutinarias. Esto ahorra tiempo a los empleados, ofrece a los clientes un servicio más rápido y proporciona interacciones más personalizadas, todo lo cual mejora la retención de clientes para impulsar el negocio.
  • Lo que la IA significa para los equipos

(Volver al principio)

Red neuronal artificial (RNA)

Una red neuronal artificial (RNA) es un programa informático que imita la forma en que el cerebro humano procesa la información. Nuestros cerebros tienen miles de millones de neuronas conectadas entre sí, y una RNA (también llamada «red neuronal») tiene montones de pequeñas unidades de procesamiento trabajando juntas. Imagínatela como un equipo que trabaja para resolver el mismo problema. Cada miembro del equipo hace su parte y luego transmite sus resultados. Al final, obtienes la respuesta que necesitas

  • Qué significa para los clientes: Los clientes se benefician de todo tipo de formas cuando las RNA resuelven problemas y realizan predicciones precisas, como recomendaciones altamente personalizadas que se traducen en una experiencia del cliente más adaptada, intuitiva y, en última instancia, más satisfactoria. Las redes neuronales son excelentes para reconocer patrones, lo que las convierte en una herramienta clave para detectar comportamientos inusuales que puedan indicar fraude. Esto ayuda a proteger la información personal y las transacciones financieras de los clientes.
  • Lo que significa para los equipos: Los equipos también se benefician. Pueden pronosticar la pérdida de clientes, lo que impulsa formas proactivas de mejorar la retención de clientes. Las RNA también pueden ayudar a segmentar a los clientes, lo que permite realizar esfuerzos de marketing más específicos y eficaces. En un sistema de CRM, las redes neuronales podrían utilizarse para predecir el comportamiento de los clientes, comprender sus comentarios o personalizar las recomendaciones de productos.
  • Las redes neuronales también pueden ayudar a los equipos

(Volver al principio)

Inteligencia aumentada

Piense en la inteligencia aumentada como una fusión de personas y ordenadores para obtener lo mejor de ambos mundos. Los ordenadores son excelentes para manejar muchos datos y realizar cálculos complejos con rapidez. A los humanos se nos da muy bien entender el contexto, encontrar conexiones entre las cosas incluso con datos incompletos y tomar decisiones por instinto. La inteligencia aumentada combina estas dos habilidades. No se trata de que los ordenadores sustituyan a las personas o hagan todo el trabajo por nosotros. Es más bien como contratar a un asistente realmente inteligente y bien organizado.

  • Qué significa para los clientes: La inteligencia aumentada permite que un ordenador haga números, pero luego los humanos pueden decidir qué acciones tomar basándose en esa información. Esto se traduce en un mejor servicio, marketing y recomendaciones de productos para sus clientes.
  • Qué significa para los equipos: La inteligencia aumentada puede ayudarle a tomar decisiones mejores y más estratégicas. Por ejemplo, un sistema de CRM podría analizar los datos de los clientes y sugerir el mejor momento para que los equipos de ventas o marketing se pongan en contacto con un cliente potencial, o recomendar productos en los que un cliente podría estar interesado.
  • La inteligencia aumentada puede ayudarle a tomar decisiones más estratégicas

(Volver al principio)

AI conversacional

La IA conversacional nos permite utilizar el lenguaje cotidiano cuando interactuamos con la inteligencia artificial. Mediante tecnologías como el procesamiento del lenguaje natural (definición de PNL de referencia), el aprendizaje automático y el reconocimiento del habla, la IA puede entender preguntas e instrucciones, lo que le ayuda a ofrecer mejores respuestas. La interacción con la IA es más natural y sencilla, y no requiere una formación especial. Antes, para encontrar lo que buscaba, tenía que introducir en un motor de búsqueda términos con palabras complicadas. Con la IA conversacional, basta con formular la petición como lo harías con otra persona

  • Qué significa para los clientes: La IA conversacional permite una asistencia cómoda y permanente a través de chatbots que pueden resolver dudas, proporcionar información sobre productos o guiar a los usuarios a través de un proceso, todo ello utilizando el lenguaje natural. Las interacciones se vuelven más fluidas y personalizadas, mejorando la satisfacción del cliente.
  • Qué significa para los equipos: La IA conversacional significa que sus equipos pueden hablar con su CRM de forma natural y hacer que realice acciones por ellos. Así, los representantes de ventas pueden simplemente pedir un informe de estado sobre un nuevo cliente potencial, los responsables de marketing pueden solicitar la creación de una nueva campaña y los agentes de atención al cliente pueden redirigir un pedido. Todo se hace utilizando con la IA las mismas palabras que utilizarían con un compañero de trabajo.
  • Los agentes del servicio de atención al cliente pueden realizar acciones por ellos

(Volver al principio)

Gestión de la relación con el cliente (CRM) con IA Generativa

CRM es una tecnología que mantiene los registros de los clientes en un solo lugar para servir como única fuente de verdad para cada departamento, lo que ayuda a las empresas a gestionar las relaciones con los clientes actuales y potenciales. La IA generativa puede hacer que el CRM sea aún más potente: piense en correos electrónicos personalizados redactados previamente para los equipos de ventas, descripciones de productos de comercio electrónico escritas en función del nombre del producto, respuestas contextuales a tickets de atención al cliente, etc.

La IA generativa puede hacer que el CRM sea aún más potente

  • Qué significa para los clientes: Un CRM ofrece a los clientes una experiencia coherente en todos los canales de interacción, desde el marketing hasta las ventas, pasando por el servicio de atención al cliente y mucho más. Aunque los clientes no ven un CRM, sienten la conexión durante cada interacción con una marca.
  • Los CRM son una herramienta de gestión de la relación con el cliente
  • Qué significa para los equipos: Un CRM ayuda a las empresas a mantenerse conectadas con los clientes, agilizar los procesos y mejorar la rentabilidad. Permite a sus equipos almacenar información de contacto de clientes y clientes potenciales, identificar oportunidades de venta, registrar problemas de servicio y gestionar campañas de marketing, todo en una ubicación central. Por ejemplo, pone la información sobre cada interacción con el cliente a disposición de cualquiera que pueda necesitarla. La IA generativa amplifica el CRM haciendo que sea más rápido y fácil conectar con los clientes a escala: piense en campañas de marketing lead-gen traducidas automáticamente para llegar a sus principales mercados en todo el mundo, o en respuestas recomendadas de atención al cliente que ayudan a los agentes a resolver problemas rápidamente e identificar oportunidades para futuras ventas.

(Volver al principio)

Aprendizaje profundo

El aprendizaje profundo es una forma avanzada de IA que ayuda a los ordenadores a reconocer patrones complejos en los datos. Imita la forma en que funciona nuestro cerebro utilizando lo que se denomina redes neuronales en capas (véase la red neuronal artificial (RNA) más arriba), donde cada capa es un patrón (como las características de un animal) que luego le permite hacer predicciones basadas en los patrones que ha aprendido antes (por ejemplo: identificar nuevos animales basándose en las características reconocidas). Es muy útil para cosas como el reconocimiento de imágenes, el procesamiento del habla y la comprensión del lenguaje natural

  • Lo que significa para los clientes: Los CRM impulsados por el aprendizaje profundo crean oportunidades para el compromiso proactivo. Pueden mejorar la seguridad, hacer más eficiente el servicio al cliente y personalizar las experiencias. Por ejemplo, si tiene la costumbre de comprar ropa nueva antes de cada temporada de fútbol, el aprendizaje profundo conectado a un CRM podría mostrarle anuncios o correos electrónicos de marketing con la ropa de su equipo favorito un mes antes de que empiece la temporada, para que esté preparado el día del partido.
  • Los CRM con aprendizaje profundo pueden ayudar a los clientes a mejorar la seguridad, hacer que el servicio al cliente sea más eficiente y personalizar las experiencias
  • Qué significa para los equipos: En un sistema CRM, el aprendizaje profundo se puede utilizar para predecir el comportamiento de los clientes, comprender sus comentarios y personalizar las recomendaciones de productos. Por ejemplo, si hay un auge en las ventas entre un segmento de clientes en particular, un CRM impulsado por deep learning podría reconocer el patrón y recomendar aumentar el gasto en marketing para llegar más a ese grupo de audiencia.

(Volver al principio)

Discriminador (en un GAN)

En una Red Generativa Adversarial (GAN), el discriminador es como un detective. Cuando se le muestran imágenes (u otros datos), tiene que adivinar cuáles son reales y cuáles son falsas. Las imágenes «reales» proceden de un conjunto de datos, mientras que las «falsas» son creadas por la otra parte de la GAN, denominada generador (véase generador más abajo). El trabajo del discriminador consiste en mejorar la distinción entre imágenes reales y falsas, mientras que el generador intenta mejorar la creación de imágenes falsas. Esta es la versión de software de construir continuamente una ratonera mejor.

  • Qué significa para los clientes: Los discriminadores en los GAN son una parte importante de la detección del fraude. Su uso conduce a una experiencia más segura para el cliente.
  • Los discriminadores en los GAN son una parte importante de la detección del fraude
  • Qué significa para los equipos: Los discriminadores en GANs ayudan a su equipo a evaluar la calidad de los datos sintéticos o el contenido y ayudan en la detección de fraudes y el marketing personalizado.

(Volver al principio)

¿Cómo es un modelo de madurez ética de la IA?

Tus clientes esperan que utilices la IA de forma responsable. Necesitas implementar una práctica de IA ética para desarrollar y hacer operativos principios como la transparencia, la equidad, la responsabilidad, la rendición de cuentas y la fiabilidad. He aquí cómo.




Modelo de madurez de la IA ética

Un modelo de madurez de IA ética es un marco que ayuda a las organizaciones a evaluar y mejorar sus prácticas éticas en el uso de tecnologías de IA. Traza las formas en que las organizaciones pueden evaluar sus prácticas éticas actuales de IA, y luego progresar hacia un uso más responsable y digno de confianza de la IA. Abarca cuestiones relacionadas con la transparencia, la imparcialidad, la privacidad de los datos, la responsabilidad y la parcialidad en las predicciones

  • Qué significa para los clientes: Disponer de un modelo de IA ético y ser abierto sobre cómo utiliza la IA ayuda a generar confianza y garantiza a sus clientes que utiliza sus datos de forma responsable.
  • Qué significa para los equipos: Evaluar periódicamente tus prácticas de IA y mantenerte transparente sobre cómo usas la IA puede ayudarte a mantenerte alineado con las consideraciones éticas y los valores sociales de tu empresa.
  • Los equipos de TI deben tener en cuenta que la IA es una herramienta fundamental para el éxito de la empresa

(Volver al principio)

La IA explicable (XAI)

¿Recuerdas cuando te pedían que enseñaras tu trabajo en clase de matemáticas? Eso es lo que le pedimos a la IA. La IA explicable (XAI) debe proporcionar información sobre lo que influyó en los resultados de la IA, lo que ayudará a los usuarios a interpretar (¡y confiar!) en sus resultados. Este tipo de transparencia siempre es importante, pero lo es especialmente cuando se trata de sistemas delicados como la sanidad o las finanzas, donde las explicaciones son necesarias para garantizar la imparcialidad, la responsabilidad y, en algunos casos, el cumplimiento de la normativa.

  • Lo que significa para los clientes: Si un sistema de IA puede explicar sus decisiones de forma comprensible para los clientes, aumenta la fiabilidad y la credibilidad. También aumenta la confianza de los usuarios, sobre todo en ámbitos delicados como la sanidad o las finanzas.
  • Lo que significa para los clientes
  • Lo que significa para los equipos: XAI puede ayudar a los empleados a entender por qué un modelo hizo una determinada predicción. Esto no solo aumenta su confianza en el sistema, sino que también respalda una mejor toma de decisiones y puede ayudar a perfeccionar el sistema.
  • Lo que la XAI significa para los equipos

(Volver al principio)

AI Generativa

La IA generativa es el campo de la inteligencia artificial que se centra en la creación de nuevos contenidos basados en datos existentes. Para un sistema CRM, la IA generativa se puede utilizar para crear una serie de resultados útiles, desde escribir contenido de marketing personalizado hasta generar datos sintéticos para probar nuevas funciones o estrategias.

La IA generativa es un campo de la inteligencia artificial que se centra en la creación de nuevos contenidos basados en datos existentes

  • Lo que significa para los clientes: Contenidos de marketing mejores y más específicos, que les ayudan a obtener exactamente la información que necesitan y nada más.
  • Qué significa para los equipos: Construcciones más rápidas para campañas de marketing y movimientos de ventas, además de la capacidad de probar múltiples estrategias a través de conjuntos de datos sintéticos y optimizarlas antes de que nada salga a la luz. 

(Volver al principio)

Red generativa adversarial (GAN)

Uno de los dos modelos de aprendizaje profundo, las GAN se componen de dos redes neuronales: un generador y un discriminador. Las dos redes compiten entre sí: el generador crea una salida basada en una entrada y el discriminador intenta determinar si la salida es real o falsa. A continuación, el generador ajusta su salida en función de la respuesta del discriminador, y el ciclo continúa hasta que el discriminador se queda perplejo

  • Lo que significa para los clientes: Permiten un marketing altamente personalizado que utiliza imágenes o texto personalizados – como imágenes promocionales personalizadas para cada cliente.
  • Lo que significa para los equipos: Pueden ayudar a tu equipo de desarrollo a generar datos sintéticos cuando faltan datos de clientes. Esto es especialmente útil cuando surgen problemas de privacidad en torno al uso de datos de clientes reales.
  • Pueden ayudar a su equipo de desarrollo a generar datos sintéticos cuando faltan datos de clientes

(Volver al principio)

Transformador generativo preentrenado (GPT)

GPT es una familia de redes neuronales que se entrena para generar contenidos. Los modelos GPT están preentrenados en una gran cantidad de datos de texto, lo que les permite generar texto claro y relevante en función de las indicaciones o consultas de los usuarios.

Transformador generativo preentrenado (GPT) es una familia de redes neuronales que se entrena para generar contenido

  • Lo que significa para los clientes: Los clientes tienen interacciones más personalizadas con su empresa que se centran en sus necesidades específicas.
  • Los clientes tienen interacciones más personalizadas con su empresa que se centran en sus necesidades específicas
  • Qué significa para los equipos: GPT podría usarse para automatizar la creación de contenido de cara al cliente, o para analizar los comentarios de los clientes y extraer perspectivas.
  • Para los equipos: Los clientes tienen interacciones más personalizadas con su empresa que se centran en sus necesidades

(Volver al principio)

Saluda a Einstein

La primera IA generativa del mundo para CRM le permite ofrecer contenido creado por IA en todas las interacciones de ventas, marketing, servicio, comercio y TI, a escala. Supone un cambio radical para su empresa




Generador

Un generador es una herramienta de software basada en IA que crea nuevo contenido a partir de una solicitud o entrada. Aprenderá de cualquier dato de entrenamiento suministrado y, a continuación, creará nueva información que imite esos patrones y características. ChatGPT de OpenAI es un conocido ejemplo de generador basado en texto

  • Qué significa para los clientes: Usando generadores, es posible entrenar chatbots de IA que aprendan de las interacciones reales de los clientes, y crear continuamente contenidos mejores y más útiles.
  • Qué significa para los equipos: Los generadores pueden utilizarse para crear conjuntos de datos realistas con fines de prueba o entrenamiento. Esto puede ayudar a su equipo a encontrar errores en un sistema antes de que se ponga en marcha, y permitir que los nuevos empleados se pongan al día en su sistema sin afectar a los datos reales
  • (Volver al principio)

    Principios

    La base de la IA (también conocida como base dinámica) consiste en garantizar que el sistema comprenda y se relacione con el conocimiento, los datos y las experiencias del mundo real. Es algo así como dar a la IA un plano al que referirse para que pueda proporcionar respuestas relevantes y significativas en lugar de vagas y poco útiles. Por ejemplo, si le preguntas a una IA: «¿Cuál es el mejor momento para plantar flores?», una respuesta no fundamentada sería: «¡Cuando te apetezca!» Una respuesta fundamentada te diría que depende del tipo de flor y del entorno local. La respuesta fundamentada muestra que la IA entiende el contexto en el que un humano tendría que realizar esta tarea.

    • Qué significa para los clientes: Los clientes reciben respuestas más precisas y relevantes de los sistemas de IA fundamentada, lo que conduce a una experiencia de usuario más intuitiva y satisfactoria con resultados predecibles y esperados. 
    • Qué significa para los equipos: Cuando los equipos puedan desarrollar sistemas de IA más fiables y conscientes del contexto, podrán reducir los errores y los malentendidos. Los equipos podrán seguir supervisando las interacciones, pero necesitarán menos intervención humana para seguir siendo precisos y útiles.
    • Los equipos podrán seguir supervisando las interacciones, pero necesitarán menos intervención humana para seguir siendo precisos y útiles

    (Volver al principio)

    Alucinación

    Una alucinación ocurre cuando la IA generativa analiza el contenido que le damos, pero llega a una conclusión errónea y produce un nuevo contenido que no se corresponde con la realidad o con sus datos de entrenamiento. Un ejemplo sería un modelo de IA entrenado con miles de fotos de animales. Cuando se le pide que genere una nueva imagen de un «animal», puede combinar la cabeza de una jirafa con la trompa de un elefante. Aunque pueden ser interesantes, las alucinaciones son resultados indeseables e indican un problema en los resultados del modelo generativo.

    La IA puede generar alucinaciones

    • Qué significa para los clientes: Cuando las empresas vigilan y abordan este problema en su software, la experiencia del cliente es mejor y más fiable.
    • Para los clientes: La experiencia del cliente es mejor y más fiable
    • Qué significa para los equipos: La garantía de calidad seguirá siendo una parte importante de un equipo de IA. Supervisar y abordar las alucinaciones ayuda a garantizar la precisión y la fiabilidad de los sistemas de IA.
    • Cuáles son las consecuencias para los equipos

    (Volver al principio)

    Human in the Loop (HITL)

    Piense en usted como un directivo y en la IA como su empleado más reciente. Puede que tengas un nuevo trabajador con mucho talento, pero aún necesitas revisar su trabajo y asegurarte de que es lo que esperabas, ¿verdad? Eso es lo que significa «human in the loop»: asegurarnos de que supervisamos los resultados de la IA y de que proporcionamos información directa al modelo, tanto en las fases de formación y prueba como durante el uso activo del sistema. Human in the Loop aúna la IA y la inteligencia humana para lograr los mejores resultados posibles.

    • Qué significa para los clientes: Los clientes pueden confiar en que los sistemas de IA se han perfeccionado con supervisión humana, lo que garantiza unos resultados más precisos y éticos.
    • Lo que significa para los equipos: Los equipos son capaces de dar forma y refinar activamente los modelos de IA, y sus respuestas, para que se alineen con los objetivos y valores de la organización. Mantener a un humano en el bucle significa que su sistema de IA se adaptará mejor a las necesidades de su organización.
    • Lo que significa para los equipos:

    (Volver al principio)

    Modelo de lenguaje amplio (LLM)

    Un LLM es un tipo de inteligencia artificial que se ha entrenado con muchos datos de texto. Es como un compañero de conversación realmente inteligente que puede crear un texto que suene humano basándose en una indicación dada. Algunos LLM pueden responder preguntas, escribir ensayos, crear poesía e incluso generar código

    • Lo que significa para los clientes: Chatbots personalizados que ofrecen interacciones que suenan humanas, lo que permite a los clientes soluciones rápidas y sencillas a problemas comunes de forma que sigan sintiéndose auténticos.
    • Los chatbots personalizados ofrecen interacciones que suenan humanas
    • Qué significa para los equipos: Los equipos pueden automatizar la creación de contenido de cara al cliente, analizar los comentarios de los clientes y responder a las consultas de los clientes.

    (Volver al principio)

    Aprendizaje automático

    El aprendizaje automático es la forma en que los ordenadores pueden aprender cosas nuevas sin estar programados para ello. Por ejemplo, cuando se enseña a un niño a identificar animales, se le muestran imágenes y se le proporcionan comentarios. A medida que ven más ejemplos y reciben retroalimentación, aprenden a clasificar animales basándose en características únicas. Del mismo modo, los modelos de aprendizaje automático generalizan y aplican sus conocimientos a nuevos ejemplos, aprendiendo de los datos etiquetados para realizar predicciones y tomar decisiones precisas.

  • Lo que significa para los clientes: Cuando una empresa comprende mejor lo que los clientes valoran y desean, da lugar a mejoras en los productos o servicios actuales, o incluso al desarrollo de otros nuevos que satisfagan mejor las necesidades de los clientes.
  • Para los clientes, el conocimiento de sus necesidades es fundamental
  • Qué significa para los equipos: El aprendizaje automático puede utilizarse para predecir el comportamiento de los clientes, personalizar el contenido de marketing o automatizar tareas rutinarias.
  • El aprendizaje automático puede utilizarse para predecir el comportamiento de los clientes, personalizar el contenido de marketing o automatizar tareas rutinarias

    (Volver al principio)

    Prejuicios del aprendizaje automático

    El sesgo de aprendizaje automático se produce cuando un ordenador aprende a partir de una visión limitada o unilateral del mundo, y entonces empieza a tomar decisiones sesgadas cuando se enfrenta a algo nuevo. Esto puede deberse a una decisión deliberada de los humanos que introducen los datos, a la incorporación accidental de datos sesgados o a que el algoritmo hace suposiciones erróneas durante el proceso de aprendizaje, lo que conduce a resultados sesgados. El resultado final es el mismo: resultados injustos porque la comprensión del ordenador es limitada y no tiene en cuenta todas las perspectivas por igual

    Ejemplo:  Si un modelo de aprobación de préstamos se entrena con datos históricos que muestran una tendencia a aprobar préstamos para ciertos grupos demográficos (como el género o la raza), puede aprender y perpetuar esos sesgos en los resultados futuros. Esto podría dar lugar a predicciones inexactas, prejuicios y respuestas ofensivas. Esto no se debe a un prejuicio en el sistema, sino a un sesgo en los datos de entrenamiento. Tendrá enormes implicaciones para la precisión y la eficacia del sistema, así como para la igualdad de los clientes y su confianza en él

    • Lo que significa para los clientes: Trabajar con empresas que se comprometen activamente a superar los prejuicios conduce a experiencias más equitativas, y genera confianza.
    • Qué significa para los equipos: Es importante comprobar y abordar los sesgos para garantizar que todos los clientes reciban un trato justo y preciso.

    (Volver al principio)

    Modelo

    Es un programa que ha sido entrenado para reconocer patrones en los datos. Podrías tener un modelo que predice el tiempo, traduce idiomas, identifica fotos de gatos, etc. Al igual que una maqueta de avión es una versión más pequeña y sencilla de un avión real, un modelo de IA es una versión matemática de un proceso del mundo real.

    La IA es un programa que ha sido entrenado para reconocer patrones de datos

    • Qué significa para los clientes: El modelo puede ayudar a los clientes a obtener recomendaciones de productos mucho más precisas.
    • Qué significa para los equipos: Esto puede ayudar a los equipos a predecir el comportamiento de los clientes, y a segmentar a los clientes en grupos.
    • Lo que significa para los equipos

    (Volver al principio)

    Procesamiento del lenguaje natural (PLN)

    El PLN es un campo de la inteligencia artificial que se centra en cómo los ordenadores pueden entender, interpretar y generar el lenguaje humano. Es la tecnología que se esconde detrás de cosas como los asistentes virtuales activados por voz, las aplicaciones de traducción de idiomas y los chatbots

    • Qué significa para los clientes: NLP permite a los clientes interactuar con los sistemas utilizando el lenguaje humano normal en lugar de comandos complejos. Los asistentes de voz son un buen ejemplo de ello. Esto hace que la tecnología sea más accesible y fácil de usar, mejorando la experiencia del usuario.
    • Qué significa para los equipos: NLP se puede utilizar para analizar los comentarios de los clientes, potenciar los chatbots o automatizar la creación de contenido de cara al cliente.
    • Los equipos pueden utilizar NLP para analizar los comentarios de los clientes, potenciar los chatbots o automatizar la creación de contenido de cara al cliente

    (Volver al principio)

    Parámetros

    Los parámetros son valores numéricos que se ajustan durante el entrenamiento para minimizar la diferencia entre las predicciones de un modelo y los resultados reales. Los parámetros desempeñan un papel crucial a la hora de dar forma al contenido generado y garantizar que cumple criterios o requisitos específicos. Definen la estructura y el comportamiento del LLM y le ayudan a reconocer patrones, de modo que pueda predecir lo que vendrá a continuación cuando genere contenidos. Establecer parámetros es un acto de equilibrio: con muy pocos parámetros la IA puede no ser precisa, pero con demasiados parámetros utilizará un exceso de potencia de procesamiento y podría volverse demasiado especializada.

  • Lo que significa para los clientes: Los modelos de IA con un mayor número de parámetros pueden predecir mejor y generar texto similar al de los humanos, lo que significa que los clientes se beneficiarán de respuestas más precisas y coherentes.
  • Lo que significa para los equipos: Los equipos pueden ajustar y optimizar los modelos de IA de forma más eficaz, lo que se traduce en un mejor rendimiento y resultados más fiables, al tiempo que se evita crear un sistema que desperdicie potencia de procesamiento innecesariamente o que se especialice demasiado en un conjunto de datos de entrenamiento concreto.
  • (Volver al principio)

    Prompt defensa

    Una forma de protegerse contra los hackers y las salidas dañinas es ser proactivo sobre qué términos y temas no desea que su modelo de aprendizaje automático aborde. La creación de barandillas como «No aborde ningún contenido ni genere respuestas sobre las que no tenga datos o base» o «Si experimenta un error o no está seguro de la validez de su respuesta, diga que no lo sabe» son una gran forma de defenderse de los problemas antes de que surjan.

    Defensa

    • Lo que significa para los clientes: No se proporcionan respuestas con información, términos y temas que puedan resultar ofensivos, confusos o incorrectos.
    • Lo que significa para los equipos:Evita dolores de cabeza antes de que sucedan al asegurarse de que no está proporcionando información que los clientes no quieren o temas que no desea que se asocien con su marca, o que podrían tener ramificaciones legales con los derechos de autor.
    • Lo que significa para los clientes:No se proporcionan respuestas con información, términos y temas que puedan resultar ofensivos, confusos o incorrectos

    (Volver al principio)

    Ingeniería de promp

    Ingeniería de instrucciones significa averiguar cómo hacer una pregunta para obtener exactamente la respuesta que necesitas. Es elaborar o elegir cuidadosamente la entrada (prompt) que le das a un modelo de aprendizaje automático para obtener el mejor resultado posible.

    • Lo que significa para los clientes: Cuando su herramienta de IA generativa recibe una indicación sólida, es capaz de ofrecer un resultado sólido. Cuanto más fuerte y relevante sea el mensaje, mejor será la experiencia del usuario final.
    • Cuando una herramienta de IA generativa recibe un mensaje fuerte, es capaz de ofrecer un resultado fuerte
    • Qué significa para los equipos: Puede usarse para pedir a un gran modelo lingüístico que genere un correo electrónico personalizado para un cliente, o para analizar los comentarios de los clientes y extraer información clave.

    (Volver al principio)

    Red-Teaming

    Si fueras a lanzar un nuevo sistema de seguridad en tu organización, contratarías a expertos para probarlo y encontrar posibles vulnerabilidades, ¿verdad? El término «red-teaming» procede de una táctica militar que asigna a un grupo la tarea de probar un sistema o proceso en busca de puntos débiles. Cuando se aplica a la IA generativa, los «red-teamers» elaboran retos o instrucciones para que la IA genere respuestas potencialmente dañinas. De este modo, se aseguran de que la IA se comporta de forma segura y no provoca inadvertidamente experiencias negativas para los usuarios. Es una forma proactiva de garantizar la calidad y la seguridad de las herramientas de IA

    • Lo que significa para los clientes: Los clientes se benefician de sistemas de IA más robustos y fiables que han sido probados contra posibles vulnerabilidades, lo que garantiza una experiencia de usuario más segura y fiable.
    • Los clientes se benefician de una experiencia de usuario más segura y fiable
    • Lo que significa para los equipos (internos): Los equipos pueden identificar y abordar posibles vulnerabilidades en los sistemas de IA, lo que conduce a modelos más resistentes y fiables.

    (Volver al principio)

    Aprendizaje por refuerzo

    El aprendizaje por refuerzo es una técnica que enseña a un modelo de IA a encontrar el mejor resultado mediante el método de ensayo y error, ya que recibe recompensas o correcciones de un algoritmo en función de los resultados obtenidos. Piensa que entrenar a una IA es algo así como enseñar a tu mascota un truco nuevo. Tu mascota es el modelo de IA, el entrenador es el algoritmo y tú eres el dueño. Con el aprendizaje por refuerzo, la IA, como una mascota, prueba diferentes enfoques. Cuando lo hace bien, recibe una recompensa del entrenador, y cuando se equivoca, se le corrige. Con el tiempo, al entender qué acciones conducen a recompensas y cuáles no, mejora en sus tareas. Entonces, usted, como dueño de la mascota, puede darle un feedback más específico, haciendo que las respuestas de la mascota se adapten a su casa y a su estilo de vida

    • Qué significa para los clientes: Los clientes se benefician de los sistemas de IA que mejoran y se adaptan continuamente en función de los comentarios, especialmente los humanos. Esto ayuda a garantizar interacciones más relevantes y precisas a lo largo del tiempo
    • Lo que significa para los equipos: Sus equipos pueden utilizar el aprendizaje por refuerzo para entrenar los modelos de IA de forma más eficiente, lo que permite una mejora rápida basada en la retroalimentación del mundo real que se personaliza según su uso.

    (Volver al principio)

    Seguridad

    La seguridad de la IA es un campo interdisciplinar centrado en la prevención de accidentes, usos indebidos u otras consecuencias perjudiciales que podrían derivarse de los sistemas de IA. Es la forma en que las empresas se aseguran de que estos sistemas se comportan de forma fiable y en consonancia con los valores humanos, minimizando el daño y maximizando los beneficios de la IA.

    Seguridad de la IA

    • Lo que significa para los clientes: Cuando saben que existen sistemas de seguridad sólidos, los clientes pueden confiar en que los sistemas de IA dan prioridad a su bienestar, lo que garantiza una experiencia de usuario más segura.
    • Cuáles son las ventajas para los clientes
    • Lo que significa para los equipos: Los equipos pueden desarrollar y desplegar sistemas de IA con confianza, sabiendo que se han mitigado los riesgos potenciales y que el sistema se alinea con las normas éticas y los valores de la organización.
    • Lo que significa para los clientes:

    (Volver al principio)

    Análisis de sentimiento

    El análisis de sentimiento consiste en determinar el tono emocional detrás de las palabras para obtener una comprensión de las actitudes, opiniones y emociones de un orador o escritor. Se suele utilizar en CRM para comprender los comentarios de los clientes o las conversaciones en las redes sociales sobre una marca o un producto. Puede ser propenso a sesgos algorítmicos, ya que el lenguaje es intrínsecamente contextual. Es difícil incluso para los humanos detectar el sarcasmo en el lenguaje escrito, por lo que calibrar el tono es subjetivo

    • Lo que significa para los clientes: Los clientes pueden ofrecer su opinión a través de nuevos canales, lo que lleva a que las empresas con las que interactúan tomen decisiones más informadas.
    • Qué significa para los equipos: El análisis de sentimiento puede utilizarse para comprender cómo se sienten los clientes con respecto a un producto o marca, basándose en sus comentarios o publicaciones en redes sociales, lo que puede informar sobre muchos aspectos de la reputación y la gestión de la marca o el producto.
    • Los clientes pueden ofrecer sus opiniones a través de nuevos canales, lo que conduce a decisiones más informadas de las empresas con las que interactúan

    (Volver al principio)

    Aprendizaje supervisado

    El aprendizaje supervisado es cuando un modelo aprende a partir de ejemplos. Es como un escenario profesor-alumno: el profesor proporciona al alumno (el modelo) las preguntas y las respuestas correctas. El alumno las estudia y, con el tiempo, aprende a responder preguntas similares por sí mismo. Es muy útil para entrenar sistemas que reconocen imágenes, traducen idiomas o predicen resultados probables. (Vea el aprendizaje no supervisado más abajo).

    • Lo que significa para los clientes: Mayor eficiencia y sistemas que aprenden a comprender sus necesidades a través de interacciones anteriores.
    • Los clientes pueden disfrutar de una mayor calidad de vida
    • Qué significa para los equipos: Puede usarse para predecir el comportamiento de los clientes o segmentarlos en grupos, basándose en datos pasados.
    • Puede usarse para predecir el comportamiento de los clientes o segmentarlos en grupos, basándose en datos pasados

    (Volver al principio)

    Toxicidad

    Toxicidad es un término general que describe una variedad de lenguaje ofensivo, irrazonable, irrespetuoso, desagradable, dañino, abusivo u odioso. Por desgracia, a lo largo del tiempo, los seres humanos han desarrollado y utilizado un lenguaje que puede causar daño a los demás. Los sistemas de IA, al igual que los humanos, aprenden de todo lo que encuentran. Así que si se han encontrado con términos tóxicos, podrían utilizarlos sin entender que son ofensivos.

    • Qué significa para los clientes: Los clientes pueden sentirse más seguros y respetados cuando interactúan con plataformas y servicios que controlan y mitigan activamente la toxicidad. Esto garantiza una experiencia de usuario más positiva e inclusiva, libre de contenidos nocivos u ofensivos.
    • Lo que significa para los equipos: La capacidad de crear un entorno de trabajo más inclusivo y respetuoso abordando la toxicidad. Las herramientas que detectan y eliminan el lenguaje tóxico pueden ayudarle a mantener una imagen de marca positiva, hacer que sus clientes se sientan más seguros y reducir el riesgo de crisis de relaciones públicas.

    (Volver al principio)

    Transformador

    Los transformadores son un tipo de modelo de aprendizaje profundo, y son especialmente útiles para procesar el lenguaje. Son realmente buenos para comprender el contexto de las palabras en una frase porque crean sus resultados basándose en datos secuenciales (como una conversación en curso), no solo en puntos de datos individuales (como una frase sin contexto). El nombre «transformador» proviene de la forma en que pueden transformar los datos de entrada (como una frase) en datos de salida (como una traducción de la frase).

    Transformador

    • Qué significa para los clientes: Las empresas pueden mejorar la experiencia de atención al cliente con chatbots de IA personalizados. Estos pueden analizar comportamientos anteriores y ofrecer recomendaciones de productos personalizadas. También generan respuestas automatizadas (pero humanas), lo que favorece una forma más atractiva de comunicación con los clientes
    • Qué significa para los equipos: Los transformadores ayudan a su equipo a generar contenido de cara al cliente y potencian los chatbots que pueden gestionar interacciones básicas con los clientes. Los Transformers también pueden realizar sofisticados análisis de sentimiento sobre los comentarios de los clientes, ayudándole a responder a sus necesidades.
    • Transformers también pueden realizar sofisticados análisis de sentimiento sobre los comentarios de los clientes, ayudándole a responder a sus necesidades

    (Volver al principio)

    Transparencia

    La transparencia puede utilizarse a menudo indistintamente con «explicabilidad»: ayuda a las personas a entender por qué se toman determinadas decisiones y qué factores son responsables de las predicciones, recomendaciones o resultados de un modelo. La transparencia también significa ser franco sobre cómo y por qué se utilizan los datos en los sistemas de IA. Ser claro y franco sobre estos temas construye una base de confianza, asegurando que todo el mundo está en la misma página y fomentando la confianza en las experiencias impulsadas por la IA.

    La transparencia también significa ser franco sobre cómo y por qué se utilizan los datos en los sistemas de IA

    • Qué significa para los clientes: Cuando sus clientes puedan confiar y comprender las decisiones impulsadas por la IA, y entender cómo se utilizan sus datos, tendrán una mayor confianza en sus productos o servicios.
    • Lo que significa para los equipos: Los equipos pueden explicar y justificar mejor las decisiones impulsadas por la IA, lo que conduce a una mejora de la confianza de las partes interesadas y a una reducción del riesgo de reacciones adversas dentro de la organización.

    (Volver al principio)

    Aprendizaje no supervisado

    El aprendizaje no supervisado es el proceso de dejar que la IA encuentre patrones ocultos en tus datos sin ninguna guía. Se trata de permitir que el ordenador explore y descubra relaciones interesantes en los datos. Imagina que tienes una gran bolsa de piezas de puzzle mezcladas, pero no tienes la imagen de la caja para referirte, así que no sabes lo que estás haciendo. El aprendizaje no supervisado es como averiguar cómo encajan las piezas, buscando similitudes o grupos sin saber cuál será la imagen final

    • Qué significa para los clientes: Cuando descubrimos patrones o segmentos ocultos en los datos de los clientes, nos permite ofrecer experiencias completamente personalizadas. Los clientes obtendrán las ofertas y recomendaciones más relevantes, lo que mejorará su satisfacción.
    • Qué significa para los equipos: La capacidad de obtener información valiosa y una nueva comprensión de datos complejos. Permite a los equipos descubrir nuevos patrones, tendencias o anomalías que podrían haberse pasado por alto, lo que conduce a una mejor toma de decisiones y planificación estratégica. Esto mejora la productividad e impulsa la innovación dentro de la organización.
    • La capacidad de obtener información valiosa y una nueva comprensión de datos complejos

    (Volver al principio)

    Validación

    En el aprendizaje automático, la validación es un paso utilizado para comprobar lo bien que funciona un modelo durante o después del proceso de entrenamiento. El modelo se prueba en un subconjunto de datos (el conjunto de validación) que no ha visto durante el entrenamiento, para asegurarse de que realmente está aprendiendo y no sólo memorizando respuestas. Es como un examen sorpresa de inteligencia artificial a mitad de semestre

    • Lo que significa para los clientes: Los modelos mejor entrenados crean programas más utilizables, lo que mejora la experiencia general del usuario.
    • Los modelos mejor entrenados crean programas más utilizables, lo que mejora la experiencia general del usuario
    • Qué significa para los equipos: Puede utilizarse para garantizar que un modelo que predice el comportamiento del cliente o segmenta a los clientes funcionará según lo previsto.
    • Puede utilizarse para garantizar que un modelo que predice el comportamiento del cliente o segmenta a los clientes funcionará según lo previsto

    (Volver al principio)

    Cero retención de datos

    Cero retención de datos significa que las indicaciones y las salidas se borran y nunca se almacenan en un modelo de IA. Así que, aunque no siempre puedes controlar la información que un cliente comparte con tu modelo (aunque siempre es buena idea recordarle lo que no debería incluir), sí puedes controlar lo que ocurre a continuación. Establecer controles de seguridad y acuerdos de política de retención de datos cero con modelos externos de IA garantiza que la información no pueda ser utilizada por su equipo ni por nadie más.

    • Qué significa para los clientes: Fomenta la confianza en que la información que comparten no se utilizará para otros fines.
    • Lo que significa para los equipos: Elimina la posibilidad de que la información que los clientes comparten con su modelo -ya se trate de información de identificación personal (PII) o de cualquier otra cosa- pueda utilizarse de formas que ellos, y usted, no desearían.
    • Lo que significa para los clientes:Crea confianza en que la información que comparten no se utilizará para otros fines

    (Volver al principio)

    Zona de desarrollo proximal (ZDP)

    La Zona de Desarrollo Próximo (ZDP) es un concepto educativo. Por ejemplo, cada año los estudiantes progresan en sus habilidades matemáticas desde la suma y la resta, pasando por la multiplicación y la división, hasta llegar a complejas ecuaciones de álgebra y cálculo. La clave para avanzar es aprender progresivamente esas destrezas. En el aprendizaje automático, ZPD es cuando los modelos se entrenan en tareas progresivamente más difíciles, de modo que mejoren su capacidad de aprendizaje.

    La clave para avanzar es aprender progresivamente esas habilidades

    • Qué significa para los clientes: Cuando tu IA generativa se entrena adecuadamente, es más probable que produzca resultados precisos.
    • Qué significa para los equipos: Puede aplicarse a la formación de empleados, de modo que un empleado podría aprender a realizar tareas más complejas o hacer un mejor uso de las funciones del CRM. 

    (Volver al principio)

    Da el siguiente paso con la IA generativa

    La IA generativa tiene el poder de ayudar a todos sus equipos a conectar más estrechamente con sus clientes, desbloquear la creatividad y aumentar la productividad. Desde una perspectiva empresarial, no hay casi ninguna parte de su organización que la IA no pueda hacer más eficiente. Las aplicaciones de ventas, servicios, marketing y comercio pueden utilizar el poder de la IA generativa para ofrecer soluciones mejores y más personalizadas a sus clientes, y hacerlo con rapidez.

    La IA generativa tiene el poder de ayudar a todos sus equipos a conectar más estrechamente con sus clientes, desbloquear la creatividad y aumentar la productividad

    Al dejar que la IA nos ayude con las tareas más rutinarias de ayudar a nuestros clientes a prosperar, podremos liberar a nuestros equipos humanos para que hagan lo que mejor saben hacer: proponer nuevas ideas y nuevas formas de colaborar, todo ello mientras se crean esas conexiones únicas que solo los humanos pueden.

    Ahora que ya conoce la IA Generativa para CRM, véala en acción.

    Categories
    Discover Magazine Enterprise Software Inteligencia Artificial Salesforce

    Investigación NLG de confianza @ Salesforce AI

    Intro

    En 2023, fuimos testigos del rápido desarrollo de la IA generativa, comenzando con el ascenso de ChatGPT. Esto condujo a un aumento en la creación de modelos lingüísticos de código cerrado (LLM) competitivos como Claude, Command y Gemini, así como modelos de código abierto como Llama-2, Mistral, incluido nuestro modelo XGen. A pesar de todos los avances y las rápidas mejoras, los problemas en estos modelos, como la tendencia a producir resultados sesgados o inconsistentes, pueden impedir que los usuarios confíen plenamente en estos sistemas.

    En Salesforce, la confianza es nuestro valor número 1, y en Salesforce AI Research hemos ayudado a liderar el camino hacia la comprensión de lo que significa crear una generación de lenguaje natural (NLG) de confianza mediante el análisis de los métodos existentes, la mejora de los enfoques de modelado, la evaluación detallada y la implementación de soluciones en Salesforce Trust Layer. Salesforce Trust Layer está equipado con las mejores barreras de seguridad desde el producto hasta nuestras políticas. Diseñada para los estándares de seguridad empresarial, la capa de confianza de Einstein permite a los equipos beneficiarse de la IA generativa sin poner en peligro los datos de sus clientes.

    La IA ha estado en el núcleo de los productos de Salesforce, como se muestra en la imagen siguiente, e incluso antes de esta reciente ola de trabajo LLM, Salesforce ha sido líder en IA, produciendo una investigación impactante para hacer que los modelos de IA sean más fiables.

    INTERNAL Salesforce AI Research _ First Call Deck (FCD) (3).png

    Por ejemplo, nuestro trabajo anterior se centraba en reducir el sesgo de género en los modelos de IA. También pedimos una evaluación más sólida de estos modelos y una comprensión de los errores factuales que se encuentran en tareas como el resumen. Para ayudar más a la comunidad a evaluar y comprender sus modelos, hemos lanzado herramientas de código abierto como Robustness Gym y SummVis. Robustness Gym es un conjunto de herramientas de evaluación sencillo y extensible que unifica varios paradigmas de evaluación de robustez, mientras que SummVis es una herramienta de visualización centrada en el resumen que permite a los usuarios comprender y visualizar métricas como la consistencia factual que fundamenta un resumen en su contexto de entrada.

    Con la proliferación de los LLM, Salesforce ha seguido estando a la vanguardia de la investigación en IA fiable. Para que los métodos de IA sean fiables, los resultados deben ser coherentes con los datos de entrada y la evaluación debe ser sólida para comprender los puntos fuertes y débiles de los modelos. A continuación describimos brevemente algunas de nuestras contribuciones en las dimensiones de mejora de los métodos para la coherencia factual, junto con nuestro trabajo sobre la evaluación comparativa y la evaluación.

    Métodos para mejorar la coherencia factual

    Dentro de la mejora de la coherencia factual, parte de nuestro trabajo se ha centrado en una mejor fundamentación de las entidades que se encuentran en el contexto de entrada y en ensamblar modelos entrenados en diferentes niveles de datos ruidosos en nuestro artículo CaPE. En nuestro artículo sobre el preentrenamiento socrático, propusimos mejores formas de preentrenar un modelo que permitieran basar el resultado en preguntas importantes que pudiera plantear un usuario y, al mismo tiempo, hacer que el modelo fuera más controlable. En los casos en los que puede resultar difícil seguir entrenando un modelo, hemos propuesto varios métodos que editan la salida de un modelo existente, ya sea comprimiendo la salida o verificando el razonamiento del modelo.

    Métodos de evaluación

    Para comprender plenamente las mejoras introducidas por los métodos comentados anteriormente, es esencial realizar una evaluación exhaustiva. Hemos introducido métodos automáticos para evaluar si el resumen de un modelo es coherente con su contexto de entrada. Nuestros enfoques incluyen un modelo que comprueba si el resumen está vinculado a la entrada y un modelo que verifica si el contexto de entrada puede utilizarse para responder a preguntas basadas en el resumen del modelo. Sin embargo, gran parte de nuestro trabajo se centra en la construcción de puntos de referencia que pretenden comprender el estado actual del campo. Estos puntos de referencia cubren un conjunto diverso de tareas, desde la comprobación de hechos en diálogos hasta la clasificación en entornos de varios turnos para analizar si un modelo cambia o no sus respuestas a las consultas.
    Varios de nuestros trabajos de evaluación comparativa se han centrado en el resumen. En nuestra evaluación comparativa AggreFact, agregamos sistemas de resumen recientes y proponemos un método para alinear sus tipos de error con el fin de realizar un análisis más exhaustivo. SummEdits propone un método eficaz para aprovechar los LLM en el proceso de anotación para el análisis de errores factuales y compara los LLM más recientes como modelos de evaluación. Con el mismo objetivo de perfeccionar los protocolos de evaluación, nuestro modelo de referencia RoSE introduce un protocolo para la evaluación humana de la relevancia de un resumen que logra un alto nivel de acuerdo entre los anotadores de los trabajadores de fuentes colectivas, y nuestro trabajo DiverseSumm se basa en las ideas de nuestros artículos anteriores sobre la evaluación y la descomposición de tareas en componentes más simples en el contexto del resumen de varios documentos.

    A continuación seleccionamos dos trabajos representativos que ponen de relieve nuestros esfuerzos por mejorar la evaluación y comprender el rendimiento de los modelos en las dimensiones de calidad de la relevancia y la coherencia factual. Nuestros estudios de caso se centran en el resumen, pero podrían aplicarse a otras tareas de generación.

    Estudio de caso 1: Confiar en la evaluación humana

    Esta sección sigue a nuestro trabajo Revisiting the Gold Standard: Grounding Summarization Evaluation with Robust Human Evaluation.

    Motivación

    Para evaluar correctamente un sistema de resumen, el resumen de salida del modelo se evalúa con respecto a la información de la fuente, sus características intrínsecas y, potencialmente, con respecto a los resúmenes de referencia. Estas comparaciones se realizan utilizando tanto métricas de evaluación automática como evaluación humana. Esta configuración se muestra en la siguiente figura.

    image.png

    La evaluación humana se considera el patrón oro tanto para evaluar los sistemas de resumen como las métricas automáticas. Sin embargo, la mera evaluación humana no la convierte automáticamente en el «patrón oro». De hecho, es muy difícil realizar correctamente un estudio de evaluación humana, ya que los anotadores pueden no estar de acuerdo en lo que es un buen resumen y puede ser difícil extraer conclusiones estadísticamente significativas basándose en el tamaño actual de los conjuntos de evaluación.

    Estas dificultades nos motivan a realizar un análisis en profundidad de la evaluación humana del resumen de textos. Nuestro primer objetivo es un mejor protocolo y punto de referencia.

    Protocolo ACU

    El objetivo de este protocolo es permitir a nuestros anotadores juzgar objetivamente si el resumen contiene información destacada del resumen de referencia.
    Para ello, inspirándonos en el protocolo de evaluación piramidal, diseccionamos la tarea de evaluación en subtareas de grano más fino con la noción de unidades atómicas de contenido.

    Tomamos el resumen de referencia y pedimos a los expertos que extraigan hechos simples, o unidades atómicas, de la referencia. La primera etapa la realizan los expertos, ya que se considera una tarea más difícil escribir las unidades. A continuación, para cada resumen generado por el sistema, comprobamos si ese hecho está presente o no. Esta segunda etapa de cotejo la realizan trabajadores de crowdsourcing. Este proceso se ilustra en la siguiente figura.

    image.png

    Siguiendo este protocolo, recopilamos datos de tres conjuntos de datos de resumen habituales en los ámbitos de las noticias y el diálogo. La referencia resultante, que denominamos RoSE (Robust Summarization Evaluation) contiene tres conjuntos de prueba y un conjunto de validación en el conjunto de datos CNN/DailyMail. Logramos una alta concordancia entre anotadores, con un alfa de Krippendorff de 0,75. Las estadísticas del conjunto de datos se muestran a continuación.

    image.png

    Nuestra prueba de referencia consiste en 22.000 anotaciones a nivel de resumen de 28 sistemas de alto rendimiento en tres conjuntos de datos. Los conjuntos de datos de evaluación humana estándar para el resumen suelen incluir unos 100 documentos, pero nosotros tenemos 5 veces más documentos, lo que nos permite extraer conclusiones más sólidas sobre las diferencias en el rendimiento del sistema.

    Comparaciones de protocolos de evaluación

    Para comprender mejor nuestro protocolo ACU, lo comparamos con otros tres protocolos de evaluación humana habituales, a saber, los protocolos que no tienen en cuenta un resumen de referencia (Prior y Ref-free) y los que comparan con una referencia (Ref-based y nuestro protocolo ACU). Para evaluar estos protocolos, recopilamos anotaciones sobre 100 ejemplos de nuestra referencia para los otros tres protocolos. El siguiente diagrama muestra lo que ve el anotador cuando anota según cada protocolo.

    image.png

    Realizamos un estudio centrado en los modelos BART y BRIO más recientes, que son modelos lingüísticos supervisados, y los LLM de disparo cero de T0 y GPT-3.5 (davinci-002). Los resultados se muestran en el diagrama siguiente.

    image.png

    Encontramos que GPT3 funciona mejor en protocolos donde el anotador no ve la referencia, ya que no está entrenado para producir tales resúmenes. Además, hay problemas con las referencias que han sido señalados por trabajos anteriores, y no son favorecidos por los anotadores.

    También analizamos los posibles factores de confusión en nuestra comparación de protocolos. Encontramos que la puntuación previa del anotador es un mejor predictor de su propia puntuación libre de referencias que si se utilizan las puntuaciones de otros anotadores; la correlación entre la puntuación previa de un anotador y la puntuación libre de referencias es de 0,404, mientras que la correlación entre la puntuación libre de referencias y la puntuación de otros anotadores es sólo de 0,188. Esto sugiere que la puntuación previa influye en la puntuación libre de referencias. Esto sugiere que la puntuación previa influye en la puntuación del juicio del anotador incluso cuando tienen acceso a los documentos.

    Takeaways

    Al evaluar el rendimiento del sistema, deberíamos tener objetivos claramente definidos. De lo contrario, como se ha visto anteriormente, la preferencia previa del anotador puede desempeñar un papel importante en los resultados de la evaluación.

    También queremos señalar la diferencia entre la evaluación sin referencias y la basada en referencias y cómo elegir entre ellas. La evaluación basada en referencias puede ser más objetiva y fácil de realizar. Sin embargo, la evaluación basada en referencias puede ser más restrictiva, y algunos aspectos de la calidad son, por definición, libres de referencias, como la consistencia y la coherencia de los hechos. Además, la evaluación sin referencias se ajusta a técnicas de formación como RLFH; sin embargo, puede ser más ruidosa y subjetiva.

    Subrayamos que una evaluación humana detallada de los protocolos puede conducir a resultados más sólidos y objetivos. El mismo principio se ha aplicado a la evaluación de varias cualidades de los resúmenes, como la consistencia y la coherencia de los hechos. Creemos que ampliar nuestro protocolo ACU a dimensiones de evaluación adicionales sin referencias es una dirección prometedora.

    En general, la evaluación humana está adquiriendo aún más importancia con el progreso actual de los LLM y la introducción de técnicas de entrenamiento como RLHF, y queda mucho margen de mejora, como proponer protocolos de evaluación humana más específicos y mejorar la fiabilidad y reproducibilidad de las prácticas de evaluación humana.

    Estudio de caso 2: Evaluación de referencia de confianza

    Esta sección sigue nuestro trabajo SUMMEDITS: Measuring LLM Ability at Factual Reasoning Through The Lens of Summarization. Como se mencionó en la parte anterior, queremos realizar una evaluación específica de las dimensiones de calidad adicionales, y en este trabajo, nos centramos en la coherencia factual.

    Motivación

    Trabajos anteriores han señalado la baja concordancia entre anotadores y las variaciones en la forma en que diferentes documentos han anotado las categorías de factualidad. Esto es lamentable, ya que la factualidad debería ser una de las categorías más objetivas para anotar. Otro factor en esta anotación es que, a diferencia de una dimensión de calidad como la coherencia o nuestra anotación ACU, la evaluación de la factualidad generalmente requiere la lectura de toda la entrada, lo que puede ser muy costoso cuando sólo se anotan varios ejemplos por documento.

    Principios rectores para la evaluación comparativa de la consistencia factual

    Diseñamos una evaluación comparativa que incorpora varios principios de nuestro análisis de los trabajos existentes sobre la consistencia factual. En el artículo se ofrecen más detalles sobre nuestro análisis.

    • Enmarcamos la evaluación de la coherencia factual como una clasificación binaria para mejorar la interpretabilidad; una clasificación de sí/no sobre si un resumen es coherente factualmente con la entrada es más interpretable que una puntuación entre 1 y 5.
    • Nuestro objetivo es la coherencia factual, por lo que no queremos que factores como los errores gramaticales o de fluidez influyan en las anotaciones. Los puntos de referencia anteriores incluyen resúmenes que pueden tener imperfecciones de fluidez o formato. Eliminamos dichos resúmenes para que el anotador solo se centre en la etiqueta de coherencia factual.
    • Queremos una alta concordancia entre anotadores para mejorar la reproducibilidad del protocolo, y también queremos una tarea que los humanos puedan realizar pero con la que los modelos puedan tener dificultades.
    • Queremos que el punto de referencia sea diverso en una amplia gama de tipos de error y dominios.

    Protocolo de anotación de summedits

    Incorporamos los principios anteriores en nuestro esquema de anotación para mantener la coherencia factual.

    En el primer paso, seleccionamos un documento y un resumen semilla (que pueden proceder del conjunto de datos original o ser generados por un LLM) y validamos que no contengan errores. Utilizamos un LLM para generar muchas ediciones menores de ese resumen, produciendo ediciones adicionales coherentes e incoherentes. A continuación, clasificamos manualmente cada edición como coherente, incoherente o dudosa. Eliminamos los casos dudosos para asegurarnos de que nuestro conjunto de datos sólo incluye muestras de alta calidad. A continuación se ofrece un resumen de nuestro proceso de anotación.

    image.png

    Para ser más concretos, pedimos a GPT3.5-turbo que edite el resumen de semillas modificando algunas palabras para crear ejemplos adicionales coherentes e incoherentes. Los resúmenes editados tienen una media de 3,6 palabras insertadas y 3,5 palabras eliminadas. Pedimos al modelo que genere unos 30 resúmenes modificados por documento, con lo que el anotador no tiene que leer varios documentos de entrada. Esto supone un coste de unos 300 dólares para 500 muestras anotadas. Contratamos a un editor profesional para este paso de anotación.

    SummEdits Benchmark

    Aplicamos este enfoque en 10 dominios que van desde noticias a diálogos, textos científicos y llamadas de ventas. Para 5 de los dominios, generamos automáticamente un resumen semilla a partir del turbo GPT 3.5 debido a la falta de resúmenes de referencia existentes de alta calidad.

    En el punto de referencia final, el 37% de los resúmenes son coherentes, acercándonos a nuestro objetivo de un punto de referencia equilibrado para facilitar una evaluación robusta.

    Los autores del artículo anotaron el 20% de las muestras del punto de referencia como coherentes o incoherentes en cuanto a los hechos y lograron un alto acuerdo entre anotadores, e incluso mayor cuando se eliminaron los casos límite de las anotaciones iniciales. Véase la tabla siguiente para obtener una visión general de los dominios cubiertos, el tamaño del conjunto de datos y la concordancia.

    image.png

    Como se ha señalado, el proceso de creación de puntos de referencia es bastante eficiente, con un coste de 300 dólares por dominio. Lo comparamos con los costes estimados de un protocolo de coherencia factual anterior, FRANK, que costaría unos 6.000 dólares para producir un conjunto de datos de tamaño similar para un nuevo dominio, que luego habría que multiplicar por 10 para igualar el tamaño total de nuestro punto de referencia.

    Análisis

    En la tabla siguiente mostramos los resultados de precisión promediados entre dominios para SummEdits para los mejores LLM en el momento del envío.

    image.png

    Encontramos que QAFactEval tiene un buen rendimiento, sólo superado en general por 4 LLM. Las métricas sin LLM obtienen los mejores resultados en el ámbito de las noticias, lo que tiene sentido dado que se desarrollaron y probaron principalmente con noticias. En el ámbito jurídico y en los diálogos de Shakespeare, la mayoría de los modelos obtuvieron peores resultados. Estas diferencias apuntan a la necesidad de desarrollar y probar en varios dominios.

    En la parte inferior de la tabla, mostramos el rendimiento humano estimado, así como una configuración de oráculo. En la configuración de oráculo, añadimos el resumen de semillas al resumen del artículo y al resumen modificado. En este caso, el resumen inicial sirve como andamiaje de información, y la mejora del rendimiento confirma que se puede conseguir un alto rendimiento del modelo; el reto de la prueba consiste en alinear los hechos del resumen editado con el documento cuando el modelo no sabe lo que se ha editado.

    En la tabla siguiente, visualizamos el rendimiento medio de los modelos que compiten entre sí. Como puede verse, sigue habiendo una brecha entre el modelo superior y el rendimiento humano y una brecha considerable con otros modelos. Así pues, creemos que el SummEdits proporciona un punto de referencia robusto y desafiante para las comparaciones de evaluación de la consistencia factual del LLM.

    image.png

    Takeaways

    En este trabajo, comparamos los LLM con datos anteriores, pero también los utilizamos para adoptar un enfoque crítico con respecto a las comparaciones previas y los posibles errores en su creación. Pedimos más puntos de referencia reproducibles y desafiantes como el que presentamos aquí. Las ediciones claras y atómicas y el desglose del proceso de anotación, similar al punto de referencia RoSE anterior, simplifican la recopilación de datos y permiten un mejor acuerdo entre los anotadores.

    En general, dadas las mejoras de los LLM, podemos aprovecharlas para escalar los procesos de anotación. En este trabajo, encontramos que sólo GPT3.5 o 4 fueron capaces de generar ediciones suficientemente refinadas sin reescribir completamente los resúmenes. El LLM elegido podría muy bien tener un efecto sobre qué modelos se prefieren, e idealmente, podríamos aprovechar múltiples LLMs en este proceso.

    Además, nos centramos en la tarea de clasificación binaria, pero estos datos podrían ser utilizados para la localización de errores o corrección de errores en futuros estudios. Además, a diferencia de otros puntos de referencia, estamos evaluando modelos como métricas y no modelos como resumidores subyacentes, pero podríamos aprovechar nuestros datos, por ejemplo, comparando la probabilidad de resúmenes coherentes entre resumidores.

    Aunque hemos visto mejoras asombrosas en el rendimiento de los modelos en los últimos años, debemos ser conscientes de las desventajas restantes de estos modelos. Creemos que la mejora conjunta de estos modelos, así como la evolución de nuestros enfoques para evaluarlos, es esencial de cara al futuro. Seguiremos investigando en los ámbitos de la coherencia de los hechos y la evaluación, y abriremos el código de nuestros documentos y herramientas, como AuditNLG, para promover un NLG fiable

    Categories
    Discover Magazine Enterprise Software Inteligencia Artificial Salesforce

    BootPIG: Bootstrapping Zero-shot Personalized Image Generation Capabilities in Pretrained Diffusion Models (Capacidad de generación de imágenes personalizadas de disparo cero en modelos de difusión preentrenados)

    TL;DR: Presentamos una arquitectura novedosa, BootPIG, que permite la generación de imágenes personalizadas sin ningún ajuste fino en tiempo de prueba.

    Periódico completo: https://arxiv.org/abs/2401.13974

    Background

    Los modelos de conversión de texto en imagen, como DALLE-3[1], Midjourney[2] y StableDiffusion[3], se han convertido en un potente medio para crear imágenes de alta calidad. Pero, ¿qué pasaría si quisiera crear una nueva imagen centrada en su perro? ¿O si fueras una empresa de zapatillas que quiere generar imágenes de alta calidad presentando su zapatilla más reciente? Dado que estos modelos se basan únicamente en la introducción de texto para el control, no conocerán las características específicas del sujeto y, por lo tanto, no conseguirán representar con precisión el perro o la zapatilla. Sin embargo, este problema de la generación basada en el sujeto, es decir, la generación de una imagen que contenga un sujeto deseado como el perro o la zapatilla, es una aplicación importante y potente de los modelos texto-imagen. Concretamente, la generación por temas permite a usuarios y empresas generar rápida y fácilmente imágenes que contengan un animal, un producto, etc. concretos, que pueden utilizarse para divertirse o para crear anuncios.

    Los modelos actuales de conversión de texto en imagen tienen dificultades para representar fielmente nuevos sujetos, como Appy el gato montés, dentro de escenas novedosas.

    Para hacer frente a este problema, muchos métodos, como DreamBooth4, utilizan el ajuste fino en tiempo de prueba, que actualiza el modelo texto-imagen para aprender el sujeto objetivo. Estos métodos consumen mucho tiempo y deben volver a entrenarse para cada nuevo sujeto. Recientemente, trabajos como BLIP-Diffusion5 han intentado mitigar estos problemas permitiendo la generación basada en el sujeto cero, en la que un usuario puede proporcionar una imagen (o varias) de su sujeto objetivo y se pueden generar escenas novedosas que contengan el sujeto sin necesidad de entrenar el modelo para que aprenda específicamente su sujeto. Desgraciadamente, los métodos de generación basados en el sujeto cero no alcanzan el rendimiento de los enfoques ajustados al tiempo de prueba, como DreamBooth. Para cerrar esta brecha, presentamos BootPIG, una arquitectura que permite la generación basada en sujetos de última generación sin necesidad de un ajuste fino que consuma mucho tiempo.

    Problema

    ¿Qué es la generación basada en sujetos de disparo cero? En términos sencillos, significa crear nuevas escenas que contengan un sujeto objetivo (por ejemplo, su perro o gato) sin entrenar el modelo de generación de imágenes específicamente para el sujeto. En este trabajo, presentamos una arquitectura y un método de preentrenamiento que dota a los potentes modelos texto-imagen de la capacidad de personalizar imágenes según un sujeto específico, sin necesidad de ningún ajuste.

    Método: BootPIG

    A continuación describimos: (1) la arquitectura de BootPIG y (2) un proceso de entrenamiento que permite a BootPIG generar imágenes sin necesidad de realizar disparos. La arquitectura de BootPIG se basa en modelos de texto a imagen preentrenados e introduce nuevas capas para permitir que el modelo preentrenado acepte imágenes del sujeto en el momento de la prueba. El proceso de formación entrena estas nuevas capas y permite así al modelo BootPIG generar imágenes del sujeto deseado sin ningún ajuste específico. Además, el proceso de entrenamiento de BootPIG no requiere imágenes reales del objeto y sólo dura una hora.

    Arquitectura: La arquitectura de BootPIG comparte similitudes con la arquitectura de ControlNet6. En concreto, introducimos una copia de la arquitectura original de texto a imagen, a la que llamamos U-Net de referencia. La U-Net de referencia toma como entrada imágenes de referencia, por ejemplo, imágenes de su perro o gato, y aprende características que permiten a la arquitectura texto-a-imagen original, a la que llamamos U-Net de base, sintetizar el sujeto en la escena deseada. Además, añadimos operadores de autoatención de referencia (RSA) en lugar de las capas de autoatención de la U-Net base. El operador RSA realiza la operación de Atención entre las características de la U-Net Base (consulta) y la concatenación de las características de la U-Net Base y las características de la U-Net de Referencia (claves, valores). Durante el entrenamiento, la U-Net de base y la U-Net de referencia se entrenan conjuntamente. Todos los parámetros de la U-Net de referencia se actualizan, mientras que sólo se entrenan las capas RSA de la U-Net de base.

    Datos: BootPIG se entrena íntegramente con datos sintéticos. Durante el entrenamiento, BootPIG requiere tripletas de la forma, (imagen, pie de foto, imagen de referencia). En primer lugar, utilizamos ChatGPT7 para generar leyendas para las imágenes potenciales. A continuación, utilizamos StableDiffusion para generar imágenes para cada uno de estos pies de foto. Por último, utilizamos Segment Anything8, un modelo de segmentación de última generación, para segmentar el sujeto en cada imagen y utilizamos esta parte segmentada de la imagen como imagen de referencia.

    Results

    BootPIG demuestra resultados cuantitativos de última generación en la generación de imágenes sin sujeto. A continuación presentamos comparaciones cualitativas (visuales) con los métodos existentes de disparo cero y de ajuste fino del tiempo de prueba. Como se ve en la figura, BootPIG es capaz de mantener las características clave de los sujetos, como las marcas de pelo del perro de la 3ª fila, en la nueva escena.

    Además, descubrimos que los evaluadores humanos prefieren BootPIG a los métodos de generación basados en sujetos existentes. En este caso, realizamos dos estudios comparativos: uno evalúa qué método genera una imagen que coincide mejor con la petición (coincidencia de petición) y otro evalúa qué método genera una imagen que mantiene las características clave del sujeto (coincidencia de sujeto).

    Impacto y consideraciones éticas

    La posibilidad de personalizar imágenes según un tema abre muchas vías de aplicación. Desde crear imágenes de marketing con su producto hasta pintar a su mascota en una foto familiar, las posibilidades de generación personalizada son infinitas. Además, el hecho de poder generar estas imágenes sin tener que esperar al proceso de ajuste, significa que estas aplicaciones están a sólo unas pulsaciones de tecla.

    Aunque BootPIG permite muchas aplicaciones interesantes, es importante tener en cuenta las limitaciones de los modelos texto-a-imagen. Los modelos texto-imagen reflejan los prejuicios recogidos en sus datos de entrenamiento. Como resultado, pueden generarse estereotipos perjudiciales y contenidos inapropiados. Además, la generación basada en temas introduce el riesgo de la desinformación. BootPIG se basa en modelos texto-imagen preentrenados y, por tanto, puede perpetuar estos sesgos.

    Conclusión y direcciones futuras

    BootPIG permite a los usuarios generar cualquier imagen con el tema que deseen, evitando la molestia de ajustar el modelo texto-imagen durante la inferencia. BootPIG preentrena un codificador temático general, que puede manejar múltiples imágenes de referencia, utilizando únicamente datos sintéticos. El proceso de entrenamiento completo dura aproximadamente una hora. El trabajo futuro podría explorar el uso de BootPIG para el inpainting basado en el sujeto o buscar la introducción de controles visuales adicionales (por ejemplo, mapas de profundidad) en el modelo, mapas de profundidad) en el modelo.

    Detalles adicionales

    Consulte el artículo completo y otros experimentos en: https://arxiv.org/abs/2401.13974

    Permanezca atento a la publicación del código y los modelos.

    Citaciones

    1. Betker, James, et al. «Improving image generation with better captions». https://cdn.openai.com/papers/dall-e-3.pdf.
    2. Midjourney. https://www.midjourney.com/home/.
    3. Rombach, Robin, et al. «Síntesis de imágenes de alta resolución con modelos de difusión latente» Actas de la conferencia IEEE/CVF sobre visión por ordenador y reconocimiento de patrones. 2022.
    4. Ruiz, Nataniel, et al. «Dreambooth: Fine tuning text-to-image diffusion models for subject-driven generation» Actas de la Conferencia IEEE/CVF sobre visión por ordenador y reconocimiento de patrones. 2023.
    5. Li, Dongxu, Junnan Li y Steven CH Hoi. «Blip-diffusion: Pre-trained subject representation for controllable text-to-image generation and editing» arXiv preprint arXiv:2305.14720 (2023).
    6. Zhang, Lvmin, Anyi Rao, and Maneesh Agrawala. «Adding conditional control to text-to-image diffusion models» Actas de la Conferencia internacional IEEE/CVF sobre visión por ordenador. 2023.
    7. ChatGPT. https://chat.openai.com/.
    8. Kirillov, Alexander, et al. «Segment anything.» arXiv preprint arXiv:2304.02643 (2023).
    9. Bianchi, Federico, et al. «Easily accessible text-to-image generation amplifies demographic stereotypes at large scale.» Actas de la Conferencia ACM 2023 sobre imparcialidad, responsabilidad y transparencia. 2023.

    Acerca de los autores

    Senthil Purushwalkam es investigador científico en Salesforce AI. Sus intereses de investigación se centran en la visión por ordenador y la PNL.

    Akash Gokul es residente de IA en Salesforce Research. Actualmente trabaja en la mejora de modelos generativos multimodales.

    Shafiq Rayhan Joty es Director de investigación en Salesforce Research AI, donde dirige el trabajo del grupo de PNL sobre modelado de grandes lenguajes (LLM) e IA generativa. Sus intereses de investigación se centran en los LLM, la PNL multimodal y la PNL robusta.

    Nikhil Naik es investigador principal en Salesforce AI. Sus intereses de investigación se centran en la visión por ordenador, el procesamiento del lenguaje natural y sus aplicaciones en ciencias. Su trabajo actual se centra en el modelado generativo y el aprendizaje de representación multimodal

    Categories
    Salesforce Transformación digital

    Normativa sobre IA generativa: lo que podría significar para su empresa

    Si se está preguntando si necesita implementar herramientas de inteligencia artificial generativa (GAI) para apoyar su negocio, no está solo. Esta tecnología puede aumentar la productividad de los empleados, pero ¿es segura? Aunque estas herramientas pueden ayudar desde el marketing al servicio al cliente pasando por el conocimiento de los datos, los líderes empresariales han planteado su preocupación por el impacto y los peligros potenciales de la IA en la sociedad y algunos están pidiendo una regulación de la IA generativa.

    La IA generativa es una tecnología que puede ayudar a mejorar la productividad de los empleados, pero ¿es segura?

    Lo que necesitas saber

    • Una respuesta global reguladora de la IA ha empezado a cuajar; en Estados Unidos, los legisladores se reunieron con líderes tecnológicos a mediados de septiembre y declararon un acuerdo universal sobre la necesidad de una regulación de la IA.
    • La UE ya ha comenzado a auditar los algoritmos de IA y los datos subyacentes de las principales plataformas que cumplen determinados criterios.
    • Como responsable de la toma de decisiones empresariales, debe comprender la GAI y cómo afecta a su trabajo con otras empresas y consumidores

    «La mayoría de los países sólo intentan garantizar que la IA generativa esté sujeta a las medidas existentes en torno a la privacidad, la transparencia, los derechos de autor y la responsabilidad», afirmó Danielle Gilliam-Moore, Directora de Políticas Públicas Globales de Salesforce.

    Lo que su empresa puede hacer ahora

    • Revisar los productos de IA generativa que hay en el mercado y ver qué tiene sentido para su empresa.
    • Informarse sobre los productos de IA generativa que hay en el mercado y ver qué tiene sentido para su empresa
    • Pregunte: ¿Tengo que desarrollarlo internamente o trabajar con un proveedor externo, como Salesforce, para añadir sus productos a nuestra pila tecnológica?
    • Pregunte:
    • ¿Qué puedo hacer?
    • Tenga en cuenta los riesgos

    Saber cómo vas a desplegar la IA generativa y ser consciente de los perjuicios es importante.

    Danielle Gilliam-Moore

    Directora de políticas públicas globales en Salesforce

    El resumen exec

    El clima en torno a la GAI avanza a velocidad de vértigo y los reguladores tratan de entender cómo puede afectar la tecnología a las empresas y al público. He aquí algunos titulares recientes:

    La historia de la regulación de la IA generativa 

    Las preocupaciones en torno a la inteligencia artificial (IA) se remontan a hace años, cuando se hablaba de la posible pérdida de puestos de trabajo, la desigualdad, los prejuicios, los problemas de seguridad y mucho más. Con el rápido crecimiento de la IA generativa tras el lanzamiento público de ChatGPT en noviembre de 2022, entre las nuevas banderas se incluyen:

    • Cuestiones de privacidad y minería de datos: Las empresas deben ser transparentes sobre dónde recopilan los datos y cómo los utilizan
    • Preocupaciones relacionadas con los derechos de autor: dado que las herramientas GAI se basan en grandes fuentes de datos, aumentan las posibilidades de plagio
    • Mala información: La información falsa podría propagarse más rápidamente con los chatbots de IA, que también han creado historias totalmente inexactas llamadas alucinaciones.
    • Los chatbots de inteligencia artificial son una fuente de información falsa
    • Verificación de identidad: ¿Lo que estás leyendo ha sido creado por un humano o por un chatbot?
    • Protección infantil: se ha hecho un llamamiento para garantizar que los niños y los adolescentes estén protegidos frente a los contenidos alarmantes generados por IA en las redes sociales.

    La innovación se está produciendo a una velocidad increíble. Así que las conversaciones que estamos teniendo ahora podrían quedarse obsoletas en los próximos seis meses.

    Danielle Gilliam-Moore

    Directora de política pública global en Salesforce

    Todo esto ha llevado a los reguladores de todo el mundo a investigar cómo las herramientas GAI recopilan datos y producen resultados y cómo las empresas entrenan a la IA que están desarrollando. En Europa, los países se han apresurado a aplicar el Reglamento General de Protección de Datos (RGPD), que afecta a cualquier empresa que trabaje en la UE. Se trata de uno de los marcos jurídicos de protección de la intimidad más estrictos del mundo; Estados Unidos no cuenta con una ley general de protección de la intimidad similar. Esto puede cambiar, con las peticiones de normativas más generativas sobre IA

    «Estas son muchas de las preocupaciones que hemos visto anteriormente llegar a las costas de la industria tecnológica», dijo Gilliam-Moore. «Ahora mismo, los esfuerzos reguladores, incluidas las investigaciones, parecen centrarse en la privacidad, la moderación de contenidos y los derechos de autor. Muchas de estas cuestiones ya se abordan en la legislación, por lo que los reguladores están tratando de asegurarse de que todo esto es adecuado para la IA generativa»

    ¿Qué consideraciones deben tener en cuenta las empresas? 

    Las empresas siguen preguntándose cómo afectarán estas herramientas a su negocio. No se trata sólo de lo que la tecnología es capaz de hacer, sino también de cómo la regulación influirá en el modo en que las empresas la utilicen. De dónde proceden los datos? ¿Cómo se utilizan? ¿Están protegidos los clientes? ¿Existe transparencia?

    Independientemente de dónde haga negocios su empresa o con quién interactúe -ya sea desarrollando la tecnología para que la utilicen otras empresas o interactuando directamente con los consumidores-, asegúrese de hablar con abogados que sigan las normativas sobre IA generativa y puedan ayudarle a guiarle en su proceso.

    «Hablar con tus asesores de confianza es siempre un buen primer paso en todo esto», dijo Gilliam-Moore. «La innovación se está produciendo a una velocidad increíble. Así que las conversaciones que mantenemos ahora podrían quedarse obsoletas en los próximos seis meses»

    Los reguladores se han preocupado por cómo las empresas recopilan los datos y cómo esa información llega a los usuarios. Contar con una política de uso aceptable -un acuerdo entre dos o más personas (como una empresa y sus empleados o una universidad y sus estudiantes) que defina el uso adecuado cuando se accede a una red corporativa o a Internet- puede ayudar a salvaguardar el cumplimiento de la normativa. Además, es importante mostrar la procedencia de los datos, un rastro documentado que pueda demostrar los orígenes de los datos y dónde se encuentran actualmente

    «Sin datos, nada de esto funciona», afirma Gilliam-Moore

    ¿Necesitas ayuda con tu estrategia de IA generativa?

    Tanto si estás empezando con la IA como si ya estás innovando, esta guía es tu hoja de ruta para ofrecer un programa de confianza que combine datos, IA y CRM.


    ¿Cómo pueden las pequeñas empresas seguir cumpliendo la normativa? 

    Las grandes empresas pueden invertir a menudo en investigación y desarrollo en torno a la tecnología, especialmente para mantener el cumplimiento. Las empresas más pequeñas pueden no tener los recursos para hacer su debida diligencia, por lo que hacer las preguntas correctas a los proveedores y socios tecnológicos en su ecosistema se convierte en algo importante.

    Las empresas más grandes a menudo pueden invertir en investigación y desarrollo en torno a la tecnología, especialmente para mantenerse en cumplimiento

    Si bien Salesforce está tomando medidas para desarrollar IA generativa de confianza para sus clientes, esos clientes también trabajan con otros proveedores y procesadores. Necesitan ser conscientes de los daños potenciales que pueden existir y no confiar ciegamente. Gilliam-Moore dijo que las empresas más pequeñas deberían plantearse preguntas como:

    • ¿Cumplen con la normativa GDPR?
    • Por qué?
    • ¿Cumple la HIPAA o cualquier otra ley que regule su sector?
    • ¿Cumple la GDPR?
    • ¿Dispone de una política de uso aceptable?
    • ¿Cuáles son sus certificaciones?
    • ¿Cuáles son sus prácticas en torno a los datos? 
    • ¿Tienen políticas que traten de proporcionar guardarraíles en torno al despliegue de esta tecnología?

    «Si usted es una empresa más pequeña, puede que tenga que confiar en la diligencia debida de sus proveedores de servicios externos», dijo Gilliam-Moore. «Mira los protocolos de privacidad, los procedimientos de seguridad, lo que identifican como daños y salvaguardias. Preste mucha atención a eso»

    La necesidad de una regulación fiable de la IA

    El desarrollo de la IA puede conllevar riesgos. Por este motivo, Salesforce apoya una regulación de IA adaptada y basada en riesgos. Diferencia contextos y usos de la tecnología y garantiza la protección de las personas, genera confianza y fomenta la innovación


    Categories
    Salesforce Transformación digital

    Ingeniería Prompt: Su curso rápido

    La ingeniería de prompts no es Rocket Science: Aprende al más alto nivel lo fácil que puede ser conseguir lo que quieres de la IA.

    ¿Siempre has querido tener un asistente amable y rápido que simplemente haga lo que dices? En muchos casos, las aplicaciones de IA como ChatGPT pueden ofrecerte exactamente eso. Pero solo funciona con tu ayuda. Para obtener resultados beneficiosos de la IA, es necesario dominar la ingeniería rápida.

    Que no cunda el pánico; no necesitas un título en informática para esto. La ingeniería de instrucciones consiste en hacer las preguntas correctas y dar las órdenes adecuadas a las IA generativas como ChatGPT para obtener la información que necesitas. En principio, este lenguaje de programación es muy parecido a nuestro lenguaje normal.

    Antes de entrar en materia, queremos asegurarnos de que conozca las soluciones de IA de Salesforce: mediante el uso de nuestra plataforma Einstein GPT, los conocimientos de IA están al alcance de su mano.

    Disponemos de módulos de formación completos para ayudarle a interactuar con nuestra plataforma basada en IA, con orientación sobre cómo crear instrucciones e información sobre cómo funciona nuestra plataforma de IA para distintos aspectos de las empresas, como ventas, servicio de atención al cliente, marketing y comercio.

    Soluciones de IA de Salesforce

    ¿Qué es Prompt Engineering?

    La ingeniería de prompts es el arte de personalizar sus entradas para crear respuestas específicas y deseadas de las aplicaciones de IA, ya sea a través de comandos o preguntas. Esto permite a las personas y a las organizaciones aprovechar todo el potencial de las tecnologías de IA, como Salesforce Einstein, perfeccionando la forma en que los usuarios interactúan con estos sistemas para lograr una mayor productividad y resultados superiores.

    Ingeniería de prompts

    Términos clave que debe comprender

    NLP (Procesamiento del Lenguaje Natural): Un campo de la inteligencia artificial que se centra en capacitar a los ordenadores para comprender, interpretar y generar lenguaje humano de una manera que sea significativa y contextualmente relevante. Muchas aplicaciones de IA utilizan este modelo como base, entre ellas ChatGPT.

    Procesamiento del Lenguaje Natural

    Reconocimiento de intenciones: se trata de un concepto fundamental de la PNL. Implica comprender el propósito subyacente del mensaje o la consulta de un usuario, una piedra angular para una ingeniería de consultas eficaz.

    Reconocimiento de la intención: es un concepto fundamental de la PNL

    Entidades: en PNL, las entidades son fragmentos específicos de información extraídos de la información introducida por el usuario, como fechas o nombres de productos

    Flujo de diálogo: El flujo de diálogo en IA/PNL es la forma en que un chatbot o sistema de IA habla contigo: entendiendo lo que dices, respondiendo y manteniendo la conversación fluida y encauzada.

    Flujo de diálogo

    Datos de entrenamiento: Los datos de alta calidad se utilizan para entrenar modelos de PNL, lo que mejora su ingeniería de avisos al mejorar el reconocimiento de intenciones y la generación de respuestas.

    Contexto: En la ingeniería de avisos, el contexto se refiere a la historia y la información de la conversación, lo que es crucial para las interacciones multiturno.

    Un vistazo para principiantes a la ingeniería de avisos

    En este post, nos centraremos en prompts de texto. Pero puedes obtener casi cualquier cosa de un prompt: ¡incluyendo imágenes!

    Este trabajo ha sido creado utilizando la versión gratuita de Clickdrop de estilo anime, una interfaz para varias herramientas (Stable Diffusion XL de Stability AI, un generador de texto a imagen de aprendizaje profundo.)

    Difusión estable XL

    Lo probamos con una pregunta sencilla: «Muéstrame una imagen con agua azul y montañas»

    Entonces, piense en una pregunta como si fuera una breve y precisa sesión informativa.

    Si tu herramienta de IA generativa recibe un mensaje significativo y relevante, puede darte una respuesta adecuada.

    Si tu herramienta de IA generativa recibe un mensaje significativo y relevante, puede darte una respuesta adecuada.

    ¿Y qué dice Open AI, los creadores de ChatGPT, sobre la ingeniería de instrucciones?

    Ejemplos de ingeniería de promptos

    Más arriba hemos explicado qué hace un ingeniero de avisos y cómo empezar. Pero, ¿cómo se ve eso en la práctica? Nuestro primer ejemplo muestra lo bien que ChatGPT funciona cuando se pone un poco más de pensamiento en su prompt.

    Aquí hay un ejemplo de ChatGPT ayudándonos a crear Buyer Persona’s.

    Aquí está nuestro prompt:

    «Crea cinco buyer personas de chocolate negro utilizando los datos de encuestas a clientes que puedas encontrar. Cree una tabla de personas y asigne a cada una un nombre, unos beneficios y unos casos de uso»

    Nota: Si tuvieras tus propios datos para formular, ChatGPT los utilizaría y los incluiría dentro de su respuesta.

    Crea una tabla de personas para cada una de ellas

    También puedes pedirle a ChatGPT que te lo ponga en una tabla:

    Para dominar las herramientas de IA generativa, introduzca las indicaciones adecuadas y tenga en cuenta estos tres principios de ingeniería de indicaciones:

    1) Proporcionar contexto: ¿Debe la IA desarrollar personas como se ha indicado anteriormente? A continuación, especifique para qué producto o servicio

    2) Sea específico: Es tentador, pero no se deje llevar por la charla; confunde a los programas de GPT. Sea breve y preciso sobre lo que se espera.

    3) Proceda paso a paso: A veces, más vale ir despacio. Divida su pregunta en varias preguntas detalladas

    Explicación de las preguntas de la cadena de pensamiento

    Chain of Thought (CoT) es una forma de que la IA responda en conversaciones que tengan sentido teniendo en cuenta lo que se ha dicho antes, para que parezca una charla natural.

    La cadena de pensamiento es una forma de que la IA responda en conversaciones que tengan sentido teniendo en cuenta lo que se ha dicho antes, para que parezca una charla natural

    En este punto, cualquiera que no sea un profesional de TI puede tener la cabeza dando vueltas, tratando de entender la diferencia entre la IA y la ingeniería pronta.

    La inteligencia artificial es una forma de responder en conversaciones con sentido, teniendo en cuenta lo que se ha dicho antes, para que parezca un chat natural

    En pocas palabras, la ingeniería del prompt es el factor principal en el uso eficaz de las herramientas de IA. El prompt es la interfaz entre los usuarios y los grandes modelos lingüísticos de IA (LLM – Large Language Model) como ChatGPT.

    Nadie tiene que recordarlo. Pero debes saber que estos modelos de lenguaje se basan en el lenguaje natural. Los LLM son modelos de aprendizaje automático. Pero generan textos parecidos a los humanos, y precisamente por eso funcionan tan bien.

    La verdadera revolución GPT: Los Prompts son una nueva forma de código que se introduce como texto y ofrece resultados instantáneos. Esto nos convierte a todos en programadores, sin necesidad de conocimientos especializados

    Para los usuarios de Prompt Engineering (y todos deberíamos familiarizarnos con ella): Tenemos que asegurarnos de que los textos que generamos alcanzan los objetivos deseados.

    Así que aprovecha los beneficios de la ingeniería de prompts, pero también sé consciente de las limitaciones de la IA generativa. Si el mensaje no es bueno, los resultados tampoco lo serán

    Por último, veamos otro ejemplo de prompt. Para hacerlo con éxito y que nos dé buenos resultados, aténgase a los tres principios descritos anteriormente.

    Aquí tienes unos cuantos tipos de prompt para empezar – todos creados con la versión gratuita de ChatGPT.

    Comentario del Principio de Pareto:

    «Quiero aprender sobre [inserte el tema (dijimos «narcisos»)]. Enumere el 20% de los conocimientos más importantes sobre este tema y compártalos conmigo, para que pueda entender el 80%.»

    La pregunta del Principio de Pareto es una forma práctica de averiguar más sobre un tema.

    La Prompta-de-la-Potencia-de-la-Red (Perfecta-para-los-emails-en-frío)

    Propuesta: «Dame una cadena de emails de llamadas en frío con secciones entre paréntesis que se puedan personalizar para personas o empresas específicas.»

    Quizás un poco más de contenido del necesario, pero definitivamente útil como punto de partida y puede servir de inspiración. Siempre puede hacer clic en «Regenerar respuesta» para revisar el texto de salida, o introducir «acortar» como indicación si la salida es demasiado larga para usted.

    Pico en la mente de los líderes

    Aproveche la sabiduría colectiva de los principales directores ejecutivos de Fortune 500 con esta indicación. Entramos en «energía verde».

    «Entreviste a un equipo de consejeros delegados de empresas de la lista Fortune 500 sobre [TEMA/PREGUNTA]. Cree instrucciones y estrategias para hacer posible [TEMA/ PREGUNTA] como si estos CEOs las hubieran respondido.»

    «Entrevistamos a un equipo de CEOs de empresas de Fortune 500 sobre [TEMA/ PREGUNTA]

    Avanzando sus Habilidades de Prompt

    En estos ejemplos, le damos a ChatGPT una plétora de datos inmobiliarios en forma de puntos y le preguntamos cuándo podría ser un buen momento para comprar una propiedad en la zona.

    Aquí está el resultado:

    Da una respuesta imparcial ya que planteamos una pregunta peliaguda, «¿cuándo es bueno comprar en la región?». Pero este tipo de pregunta puede darte una comprensión de alto nivel de lo que está sucediendo en la región. Los usuarios de ChatGPT4 pueden ir un paso más allá y conseguir que la IA cree gráficos que les ayuden a visualizar los datos, simplemente pidiéndoselo.

    La IA puede crear gráficos que les ayuden a visualizar los datos, simplemente pidiéndoselo

    Aprovecha tu potencial como Ingeniero Prompt y explora las ilimitadas oportunidades que te esperan. Es importante recordar que, si bien las IA generativas son increíblemente capaces, generan respuestas a partir de vastas fuentes de datos en línea y, en ocasiones, presentan errores. Proteger los datos confidenciales debe ser siempre una prioridad para usted y su organización.

    Para aumentar el valor de sus datos y aprovechar su potencial, considere la sinergia entre sus datos y ChatGPT. Esta asociación abre la puerta a la creación de experiencias frescas y cautivadoras para sus clientes, posicionándole como líder en la revolución de la IA que se está desarrollando.

    ChatGPT

    Categories
    Discover Magazine Enterprise Software Inteligencia Artificial Salesforce

    Adaptar los modelos de difusión a las preferencias humanas

    TLDR

    El aprendizaje a partir de las preferencias humanas, concretamente el Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF), ha sido un componente reciente clave en el desarrollo de grandes modelos lingüísticos como ChatGPT o Llama2. Hasta hace poco, el impacto del entrenamiento a partir de la retroalimentación humana en los modelos texto-imagen era mucho más limitado. En este trabajo, Diffusion-DPO, aportamos el beneficio del aprendizaje a partir de la retroalimentación humana a los modelos de difusión, dando como resultado un modelo generativo de texto-a-imagen de última generación. Esto cierra la brecha entre la familia StableDiffusion de modelos de código abierto y modelos cerrados como Midjourney v5 (el más actual en el momento de este proyecto) y abre la puerta a una nueva generación de modelos alineados de texto-a-imagen.

    En resumen: 

    • Adaptamos el método de entrenamiento Direct Preference Optimization (DPO) a modelos texto-imagen
    • Los modelos StableDiffusion-XL ajustados mediante DPO superan con creces su inicialización y son comparables a modelos de código cerrado como Midjourney y Meta’s Emu
    • Implementaciones públicas del código de entrenamiento y de los modelos resultantes

    Introducción

    La historia de la alineación (i.la historia de la alineación (es decir, la alineación con los objetivos/preferencias/ética humanos) en los grandes modelos lingüísticos (LLM) es muy diferente de la alineación en los modelos de texto a imagen (T2I). Mientras que los LLM actuales más potentes, como GPT4, Bard y Llama2, citan específicamente la alineación mediante RLHF como un componente clave de sus preferencias de entrenamiento, los modelos T2I de última generación se entrenan principalmente mediante un único y sencillo objetivo: aprender a denotar imágenes. En algunos casos, como en la familia de modelos StableDiffusion, se utiliza una segunda fase de aprendizaje para eliminar el ruido de las imágenes visualmente atractivas con el fin de inclinar el modelo hacia generaciones de «mayor valor estético». Aunque útil, se trata de un marcado contraste entre los LLM y los modelos T2I. El campo de los primeros tiene muchas recetas para incorporar la retroalimentación humana en sus modelos con enormes beneficios, mientras que el segundo tiene en gran medida enfoques justificados empíricamente o ad hoc

    Método: Difusión-DPO

    Una de las diferencias clave en la generación de difusión (T2I) respecto a la generación de lenguaje es cuál es la unidad incremental de generación. En los LLM es un token único (palabra, palabra-parte u otro trozo de texto) que, en última instancia, formará parte de la generación final. En los modelos de difusión, cada decisión incremental del modelo dirige una generación ruidosa hacia una versión limpia desenotizada (para más información sobre los modelos de difusión, véase nuestro blog sobre trabajos anteriores EDICT). Esto significa que puede haber muchos caminos hacia la misma imagen, lo que cambia el significado y la importancia de los pasos secuenciales de difusión. 

    Para considerar cómo aplicar RLHF a los modelos de difusión, recurrimos a un reciente desarrollo en el ajuste de preferencias para LLMs llamado Optimización Directa de Preferencias (DPO). DPO permite directamente el aprendizaje de un modelo para convertirse en «óptimo» con respecto a un conjunto de datos de las preferencias humanas que simplifica enormemente la tubería RLHF. Se trata de un marco mucho más sencillo que los métodos RLHF tradicionales, que requieren el aprendizaje de un modelo de «recompensa» para evaluar y criticar los resultados de los modelos generativos. El objetivo de la OPD se reduce a un criterio sencillo: ajustar el modelo para que sea más probable que produzca los datos preferidos y menos probable que produzca datos no preferidos.

    La clave matemática detrás de Diffusion-DPO es formular qué significa «más probable» para los modelos de difusión. La conclusión (después de un poco de matemática pesada)  resulta ser bastante simple: los modelos de difusión están entrenados para eliminar el ruido de las imágenes y si le das a un modelo de difusión una imagen ruidosa para eliminar el ruido, la «probabilidad» de la imagen limpia se escala con la calidad de la estimación de eliminación de ruido que hizo tu modelo. En otras palabras, el objetivo de la Difusión-DPO es ajustar el modelo para que sea mejor en la eliminación de ruido de los datos preferidos y relativamente peor en la eliminación de ruido de los datos no preferidos

    La superficie de pérdida para el objetivo de Difusión-DPO (cuanto más baja, mejor). La pérdida puede mejorarse mejorando los datos buenos y empeorando los malos.
    Superficie de pérdida para el objetivo Difusión-DPO (cuanto más bajo, mejor). La pérdida puede mejorarse mejorando en los datos buenos y empeorando en los datos malos.

    El aumento/disminución del error (mejorando/empeorando) se mide por el rendimiento relativo a un modelo de «referencia» o inicialización. En nuestros experimentos utilizamos principalmente StableDiffusion-XL-1.0, nos referiremos a este modelo específico como «SDXL». Usamos SDXL como punto de partida y lo entrenamos en el conjunto de datos Pick-a-Pic, que consiste en pares de preferencias recogidas entre dos imágenes generadas a partir del mismo pie de foto.

    Results

    En primer lugar, comparamos visualmente las generaciones de nuestro modelo SDXL ajustado a DPO (DPO-SDXL) con el SDXL original. Vemos que DPO-SDXL es más fiel a la indicación dada y produce imágenes de gran calidad que son muy agradables para los humanos, en otras palabras, ¡el modelo se ha alineado con nuestras preferencias! Tenga en cuenta que las preferencias no son universales, pero parece que el amor por las imágenes detalladas y emocionantes es una preferencia común compartida por una amplia franja de usuarios.

    Vemos que DPO-SDXL mejora significativamente a SDXL, ganando aproximadamente ⅔ de las veces.

    Comparación con los modelos de código cerrado más avanzados

    Aunque nuestros resultados en las pruebas académicas demuestran la eficacia de alinear los modelos de difusión con las preferencias de los usuarios, también queremos entender si el proceso de alineación ayuda a cerrar la brecha con los potentes modelos de código cerrado. Modelos de código cerrado como Midjourney y Meta’s Emu han demostrado ser capaces de generar imágenes significativamente mejores que las alternativas de código abierto. Ahora exploramos si la SDXL ajustada a la OPD es competitiva con Midjourney y Emu. Dado que sus conjuntos de datos de entrenamiento y (en el caso de Midjourney) las recetas de entrenamiento no están disponibles, estas no son comparaciones de manzanas con manzanas, sino más bien un esfuerzo para documentar el rendimiento relativo de los diferentes modelos.

    Midjourney es un sistema de generación de texto a imagen de código cerrado muy potente y popular conocido por la alta calidad de sus generaciones. Evaluamos cómo SDXL y SDXL-DPO se comparan con Midjourney en términos de preferencias del usuario. Comparamos estos modelos con Midjourney 5.1 (el último modelo disponible en el momento de nuestros experimentos) utilizando una colección de 346 imágenes generadas por Midjourney alojadas en Kaggle. Generamos imágenes con SDXL y SDXL-DPO utilizando las mismas indicaciones y pedimos a los crowdworkers que elijan una imagen entre Midjourney y SDXL en preferencia por pares, formulando la siguiente pregunta: «¿Qué imagen prefieres?«. Recogemos 5 respuestas para cada comparación y elegimos el voto mayoritario como la decisión colectiva. 

    Los usuarios prefieren Midjourney 5.1 a SDXL por un margen sustancial (58% a 42%), pero después de sintonizar SDXL con DPO, la preferencia de los usuarios por SDXL mejora significativamente –  SDXL-DPO es seleccionado sobre Midjourney el 51% de las veces. Estos resultados indican que el ajuste DPO permite a un modelo de código abierto igualar el rendimiento de los potentes modelos de código cerrado Midjourney. 

    A continuación, comparamos SDXL y SDXL-DPO  con Emu, un modelo reciente desarrollado y alojado por Meta. Comparamos los modelos utilizando un subconjunto de 200 Partiprompts seleccionados aleatoriamente (la interacción con el navegador es una forma lenta de recopilar datos) empleando el mismo protocolo de crowdsourcing utilizado para Midjourney.  Emu es preferido a SDXL vainilla por un margen significativo (61% a 39%), reflejando los resultados reportados en el documento de Emu.  Por el contrario, SDXL-DPO es capaz de reducir la brecha con Emu. Emu es preferido por un margen mucho más estrecho a SDXL-DPO (54% a 46%) y, de hecho, el punto de equilibrio cae dentro de la barra de error de 1 desviación estándar.

    Estos resultados demuestran el poder del aprendizaje de preferencias en los modelos de difusión. A pesar de entrenarse en una configuración offline con un conjunto de datos limitado,

    Diffusion-DPO cierra la brecha entre los modelos de código abierto y de código cerrado más avanzados.

    Generación en tiempo real: Diffusion-DPO goes Turbo

    Los modelos de difusión pueden acelerarse destilando su conocimiento a través de un proceso adicional que permite la generación de imágenes realistas con sólo unas pocas llamadas a funciones. El modelo preeminente de esta clase es SDXL Turbo, que genera imágenes en sólo 1-4 pasos. La OPD también puede beneficiar mucho a este tipo de modelos. Usando exactamente la misma pérdida de DPO (sólo modificando algunos de los ajustes para alinearlos con el entrenamiento original de SDXL Turbo) somos capaces de mejorar sustancialmente las generaciones de 4 pasos de SDXL Turbo.El desarrollo de este modelo está todavía en progreso, pero la versión temprana mostrada aquí gana el 55% de las comparaciones en PartiPrompts.

    SDXL Turbo (IZQUIERDA) vs SDXL Turb(DP)o (DERECHA) (vídeo acelerado para compactarlo)
    turbo_twitter.mp4

    Enlace de vídeo para la versión completa del gif anterior (velocidad 2x respecto al original)

    Áreas emergentes de mejora

    Una  de las quejas más comunes sobre las imágenes generadas por IA es la apariencia de las personas. Como humanos, las aberraciones en la apariencia humana renderizada realmente nos llaman la atención. Curiosamente, vemos que estas preferencias se reflejan en nuestro conjunto de datos de entrenamiento, lo que se traduce en una mejora sustancial en la generación de personas, como se muestra a continuación. Dado que estos cambios son bastante incidentales como parte de la alineación genérica, la mejora dirigida es un camino emocionante para el desarrollo futuro.

    Generación a partir de diseños de color

    La generación basada en trazos utilizando SDEdit es un interesante campo de pruebas de las tendencias aprendidas de nuestro modelo. En este caso, se utiliza un diseño de color (izquierda) como referencia para generar una imagen según las instrucciones Paisaje fantástico, tendencia en artstation (arriba) y Representación en alta resolución de una ciudad de ciencia ficción llena de color (abajo). DPO-SDXL genera imágenes visualmente mucho más emocionantes que el modelo de inicialización SDXL.

    The bottom line

    • Diffusion-DPO permite alinear los modelos de difusión con los objetivos/valores humanos
    • Este proceso de entrenamiento cierra la brecha de rendimiento de StableDiffusion-XL-1.0 a frameworks de código cerrado como Midjourney v5 o Emu.
    • Quejas comunes como la generación de personas emergen como mejoras cuando se entrena sobre preferencias humanas

    Mirando hacia el futuro, hay muchos caminos por los que la optimización de preferencias en modelos de difusión seguirá. El trabajo presentado aquí se encuentra todavía prácticamente en una escala de prueba de concepto: se espera que ampliar la escala de entrenamiento pueda mejorar aún más los modelos. Además, hay muchas variedades de preferencia/retroalimentación que pueden utilizarse aquí. Aquí sólo hemos tratado las preferencias humanas genéricas, pero en nuestro artículo experimentamos que atributos como la fidelidad del texto o el atractivo visual pueden optimizarse de forma específica. Y eso sin tener en cuenta objetivos más específicos, como la personalización. RLHF ha sido un enorme y rápido crecimiento  campo en modelos de lenguaje y estamos muy emocionados tanto para continuar el desarrollo de este tipo de enfoques de difusión y ver los trabajos de la comunidad de investigación más amplia también.

    Los autores del artículo de investigación analizado en este blog son Bram Wallace, Meihua Dang, Rafael Rafailov, Linqi Zhou, Aaron Lou, Senthil Purushwalkam, Stefano Ermon, Caiming Xiong, Shafiq Joty y Nikhil Naik.

    Más información

    Modelos: Entrenado y liberado por Meihua Dang SDXL SD1.5

    Código: Integrado en difusores: https://github.com/huggingface/diffusers/tree/main/examples/research_projects/diffusion_dpo

    Paper: Arxiv

    Categories
    Estrategias para Empresas

    🏆 Juan Manuel Garrido en Ventaja Podcast « EGA Futura

    Desde que hemos publicado este artículo, lo hemos modificado y actualizado para potenciarlo, y darle más valor para tu trabajo y tu empresa.

    Encuentra la versión actualizada de este contenido aquí: https://www.egafutura.com/negocios/juan-manuel-garrido-ventaja-podcast

    [00:00:02.340] – Raymundo

    Hola, hola, ¿qué tal? Bienvenidos y bienvenidas a Ventaja Podcast. Hoy tenemos a un gran invitado, a Juan Manuel Garrido, de EGA Futura. Juan Manuel, ¿cómo estás?

    [00:00:16.810] – Juan Manuel

    Hola, buenas tardes, Rey. ¿Cómo estás?

    [00:00:19.480] – Raymundo

    Bien, bien. Aquí con la garganta de cantante.

    [00:00:23.880] – Juan Manuel

    El problema importante es que puedas seguir hablando y muchas gracias por la invitación a tu programa.

    [00:00:32.310] – Raymundo

    No, muchas gracias a ti. Platicábamos hace rato de las reuniones, entonces siempre como ese asunto de estar acomodándose, es tema de que siempre uno tenga la flexibilidad y la apertura, y se da, siempre se da.

    [00:00:53.330] – Juan Manuel

    Exacto, sobre todo cuando es una reunión virtual y hay muchísimas personas involucradas, a veces uno tiene que tratar de ser flexible para que la reunión se pueda llevar a cabo.

    [00:01:06.630] – Raymundo

    Sí, malo cuando son presenciales. Fíjate, yo dejé de hacer presenciales ya bastante tiempo, si acaso algunas, por ahí, por el negocio. A veces no se puede. Apenas me pidieron una, hice la cuenta. De todos modos, le dije: No es viable. De entrada, yo ya digo: No. Pero fíjate, era dan de tiempo, cuatro horas y de dinero, como poquito, pero de todos modos es dinero, 20 dólares.

    [00:01:42.310] – Juan Manuel

    No, no.

    [00:01:44.840] – Raymundo

    Ni siquiera es mi cliente. Quieres que lo vaya a convencer, le digo: Que se convenza solo.

    [00:01:51.490] – Juan Manuel

    De alguna forma, la experiencia poco grata que toda la raza humana vivió 2020. Una de las cosas que sí pienso que ayudó a acelerar es la adopción de herramientas digitales que permiten que el trabajo, dentro de una empresa y dentro del mundo emprendedor, sea más eficiente. Hoy, yo puedo ver cómo equipos totalmente distribuidos son realmente productivos y son eficientes utilizando herramientas como como Slack, como Chatter, como Microsoft Teams o como Google Meet. Y antes había mucha burocracia en términos de pensar que los recursos humanos podían rendir solamente face to face en un entorno físico en donde estén todos juntos, y ahora no es así. Yo recuerdo, hace poco tiempo atrás, un amigo me decía: Nosotros a la hora de contratar recursos humanos, estamos hablando de una empresa tecnológica con un promedio de 300 empleados, me decía: Buscábamos en un radio de a 40 km/h a la redonda. Hoy eso ya no es algo relevante, no nos importa. Al principio comenzamos a buscar en otras ciudades y ahora ya se convirtieron en una empresa internacional.

    [00:03:34.880] – Raymundo

    Distribuida. Sí. Por ejemplo, Base Camp, que son como de los más promotores de eso desde el inicio. O sea, es una brutalidad.

    [00:03:47.930] – Juan Manuel

    Es una bonita empresa para estudiar Base Camp. Yo, a lo largo de mi carrera, aquí en Nega Futura, los he seguido muchísimo. Creo que son menos de 40 personas todavía. Ellos conceptualmente quieren ser tipos compactos, reducidos y trabajan de manera remota. Tienen un libro, ya que tiene varios años, Remote. Creo que fueron uno de los pioneros. Y el COVID ni siquiera era una palabra que existía en nuestra mente. Y estos güeyes, ocho años atrás, diez años atrás, ya estaban trabajando de manera remota.

    [00:04:31.560] – Raymundo

    Sí, muy impresionante. Oye, Juan Manuel, pero ahora sí que dinos, preséntate, ¿qué andas haciendo?

    [00:04:45.750] – Juan Manuel

    Yo soy Juan Manuel Garrido. Fundé en 1994 EGA Futura, una empresa de tecnología. Principalmente, lo que hacemos es fabricar software tipo ERP o ERP. Para los que no No saben lo que es software ERP, estamos hablando de software empresarial. Nosotros nos focalizamos en el segmento de empresas medianas y, principalmente, lo que hacemos es cubrir los 360 grados de la problemática que una empresa puede tener desde su inventario, sus relaciones con el cliente, sus ventas, sus compras, sus cuentas por pagar, sus cuentas por cobrar, su contabilidad y hasta cuestiones como recursos humanos, activo fijo, envíos de correos electrónicos, interacción interna. Tenemos toda una red social montada encima del sistema, con el objetivo de que los usuarios de una empresa no tengan que depender de cosas como WhatsApp o de correo electrónico, o de llamadas, y que dentro de esa red social, que que simula Facebook, pero dentro del sistema, puedan trabajar de una manera ordenada.

    [00:06:07.540] – Raymundo

    El ERP a mí me gusta mucho porque es como un sistema operativo, o sea, va, lo instala Es el sistema operativo de la empresa, es el núcleo, el ADN de lo que le indica a un grupo empresario, a un emprendedor, a un jefe, un gerente, hacia dónde está el norte y hacia dónde está el sur. Y desde el 94, o sea, Ega Futura, desde el 94, instalación en equipo, cableado de red.

    [00:06:41.480] – Juan Manuel

    Sí. De hecho, te voy a decir algo, nunca trabajé, a lo largo de mis casi 50 años, nunca trabajé en otra empresa. Comencé de adolescente a programar como software y en el 94 fundé la empresa. Era un chico de 20 años y a partir de ahí comenzamos a crecer.

    [00:07:12.120] – Raymundo

    O sea, toda la vida.

    [00:07:14.260] – Juan Manuel

    Es toda ¿Cómo se llama, mi vida, esto? Nuestro ERP tiene cuatro generaciones: generación uno, generación dos, generación tres y generación cuatro. En generación uno teníamos una interfaz de usuario DOS, de texto, Para que no sepan qué es DOS, antes de Windows, las computadoras o los computadores o los ordenadores, como se digan en diferentes lugares de Iberoamérica, usaban una interfaz de texto. Después vino Windows. Y ahora nuestro ERP de generación cuatro corre en la nube. Ya estamos trabajando para incorporar funcionalidad que incluya inteligencia artificial, tecnología muy nueva, pero que de alguna forma va a ahorrar muchísimo tiempo. Te voy a contar algo respecto a ¿Has visto? Sí. Estaba hablando hace unos meses atrás con un colega que me prendió la lámpara y me dice: estuvimos haciendo un desarrollo con inteligencia artificial para Visa. ¿Y qué hicieron? Y me dice: Son millones de personas, millones de clientes. Y la cantidad de recursos humanos en el call center no es suficiente para poder establecer comunicaciones telefónicas con los varios millones de clientes. Entonces, estamos construyendo un algoritmo que analiza el comportamiento de un cliente. Entonces, nosotros ya podemos ver, por ejemplo, que si el cliente consume todo su límite y deja de pagar, probablemente ese cliente lo perdamos y se vaya con otra empresa o sea un incobrable.

    [00:09:21.970] – Juan Manuel

    Entonces, el algoritmo va detectando esos comportamientos y genera llamados en el call center para ofrecerles, por ejemplo, una promoción al cliente y de esa manera intentar reconquistar ese cliente que ya predictivamente se va a ir para que se quede dentro de visa, en este caso. Entonces, ahí yo dije: En el mundo del software empresarial hay un montón de cosas que se pueden hacer. Obviamente que hoy la inteligencia artificial está en su infancia y tal vez podamos pensar que lo más natural es que fabrique un correo electrónico personalizado para el cliente, que esas son cosas que estamos haciendo. Inclusive también son cosas que estamos haciendo para contactar a potenciales clientes. No me hagas olvidar de esto, que es sumamente interesante, de lo que estamos haciendo para ventas. Pero volviendo a lo que es el software empresarial, se puede hacer muchísimo desde cobranzas, análisis de información, entender qué producto tengo que comprar, qué producto voy a vender, qué cliente podría tener un mejor desempeño como comprador. Y yo supongo que a lo largo de los próximos años van a haber muchísimas más cosas que nos vamos a ir dando cuenta de que pueden ser Sí.

    [00:11:02.850] – Raymundo

    Y ahí una de las preguntas que traía era: ¿cuál es el mejor momento, a través de todos los años que llevas, de implementar un RP, o sea, del lado del cliente? ¿Dónde has visto que dice.? Por ejemplo, a mí me ha pasado de cuando se pierde total trazabilidad del proceso de producción o del proceso de venta es cuando empiezan, cuando dicen por ahí, pero no sé. Tú tienes más experiencia, por supuesto.

    [00:11:38.060] – Juan Manuel

    Pregunta difícil la que me estás haciendo, porque la respuesta es difícil. Lo que yo he visto a lo largo de todos estos años, es que una empresa en particular, a lo largo de todo su ciclo de vida, va cambiando de software de gestión empresarial a medida que va creciendo creciendo, hasta que llega un momento en donde se queda con su producto definitivo eternamente. Entonces, la mejor sugerencia es desde el Al principio, hay que comenzar con una herramienta buena y barata. Hay mucho software de gestión empresarial, bueno y barato, y que corra en la nube. Cuando digo bueno y barato, estoy hablando de un software de menos de 100 dólares al mes, en la nube, es excelente. Y eso le va a permitir a un emprendedor o a una pequeña o mediana empresa comenzar a resolver dos problemas que nosotros vemos en los procesos de digitalización de empresas ya más grandes, que son: problema número uno, no hay procesos definidos. Ese es el número uno que una herramienta de software va a ayudar a resolver. Hoy hay empresas que Por ejemplo, no tienen en claro cómo comprar. Hay una empresa muy grande que por una cuestión de confidencialidad es muy conocida todo el mundo, nos contactó, no No puedo decir el nombre, pero sí voy a contar un problema.

    [00:13:32.950] – Juan Manuel

    Es una empresa que está en todo el mundo y nos contactó una subsidiaria de un país de América Latina y nos comentó este problema. Recibimos más de 2000 facturas de compra al mes y todo lo hacemos con Excel. La problemática caótica que se vive en un área administrativa manejando eso con Excel es intergaláctica, es gigante. O sea, estos tipos están pagando un montón de dinero en sueldos de recursos humanos. Los recursos humanos deben estar quemados con toda la cabeza prendida a fuego, porque levantarte a la mañana para comenzar a trabajar y que tu trabajo sea picar números adentro de una Sí. Planilla de cálculo debe ser algo bastante desmotivante. Y, por otro lado, no saben qué compran, ni a qué precio ni cómo. Entonces, establecer procesos desde un momento muy temprano le va a servir a cualquier empresa mediana o cualquier emprendedor a ya establecer procesos y que esos procesos se vayan impregnando en la cultura de de la empresa. Lo cual es clave, porque después tratar de cambiar esa cultura, y lo he visto un montón de veces, es muy difícil. Y el otro problema, te dije que tener una herramienta de software de gestión empresarial, desde el principio, resuelve dos problemas.

    [00:15:18.840] – Juan Manuel

    El segundo problema es la adaptación del recurso humano a una herramienta. El recurso humano tiene que saber que todo queda registrado, que los precios de costo son los precios de costo, los de venta son los de ventas, que hay trazabilidad de que si alguien quiere hacer una auditoría, esa auditoría va a arrojar números que coinciden o que van a coincidir con la realidad y con cosas que pasaron. Entonces, realmente es muy recomendable. Ahora, probablemente una empresa con 15 empleados, 20, cuando sean 50 van a necesitar un software más grande. Y ahí va a haber todo un proceso de migración y de dolor. Hasta que en un momento de madurez necesiten utilizar una herramienta grande, como sería el caso… Sin ningún tipo de preferencias, voy a nombrar productos que están disponibles hoy en el mercado, que compiten con nosotros y que son muy buenos. Sap Business One, una herramienta hermosa. Microsoft Dynamics, también. Ega Futura, también. Ega Futura es un ERP que corre arriba de infraestructura Salesforce. Por lo tanto, están en la app, aplicación móvil, red social, inteligencia de negocios, de informes, point and click, toda esa magia moderna. Ese tipo de productos sí tienen la capacidad de acompañar el crecimiento de una empresa eternamente, porque son productos que tienen mucha evolución tecnológica atrás, en donde todos los años hay varias generaciones y que al mismo en el tiempo, tienen una potencia de personalización enorme hacia el mercado, el segmento vertical de la empresa.

    [00:17:42.790] – Juan Manuel

    Creo que fue muy largo, pero esto es algo que yo le recomendaría muchísimo tener en cuenta a cualquier empresario que está pensando, cualquier empresario, cualquier emprendedor, cualquier persona de negocios que está pensando en tener empresa ordenada.

    [00:18:01.870] – Raymundo

    Sí, porque también una de las cosas que me encuentro muy seguido es, ya sea que están muy chiquititos de menos de siete, menos de diez, dicen: ¿Para qué? O sea, ¿para qué contrato un servicio si nada más necesito contabilidad o nada más necesito CRM o nada más necesito esto. Es que eso es uno de los grandes limitantes como del lado del mindset, que es usar un ERP, o sea, te exige entrenamiento, capacidad, un recurso humano o si no, tú mismo, dueño o dueña, convertirte en ese estratega que identifica. Y lo que a mí me encanta del ERP es que hace mucho tiempo, o sea, al inicio, cuando se empezaba a usar, pues fue creado para producto, pero para servicio no tiene ningún tema. O sea, si uno ofrece servicios, calza igual de manera perfecta. Y justo esos dolores de cabeza que dices.

    [00:19:08.840] – Juan Manuel

    Y hoy ya tenemos software ERP con especialización en servicios. Te voy a decir, por ejemplo, en el caso nuestro, que es el mismo caso de SAP y es el mismo caso de Microsoft Dynamics, hay gestión proyectos dentro de LERP. Entonces, ya es posible en la misma herramienta que están facturando o definiendo los planes de cuenta o están haciendo los asientos contables en esa misma herramienta, O sea, pueden establecer proyectos, que pueden ser proyectos internos o proyectos externos, crear todas las tareas, asignar esas tareas a Recursos Humanos, establecer deadlines, vincular consumo de o no a esas tareas. O sea, realmente es algo totalmente transformador para empresas de servicio.

    [00:20:12.870] – Raymundo

    Sí, porque es el orden y es el saber, la trazabilidad, o sea, todo. Y de verdad sí, es medio doloroso cuando uno no ha llegado a un nivel lo suficientemente alto para evaluarlo, pero ya, Ya escucharon, Juan Manuel también lo recomienda en el sentido de… También te va forzando, te va haciendo ponerle seriedad y ponerle más visión a futuro, que tampoco necesitas escalar a 300, 500, 1000 personas. ¿Qué será como el tamaño donde ya hace sentido? ¿Unas 12, 15 personas?

    [00:20:52.490] – Juan Manuel

    Para mí, el número obligatorio es ocho. Cuando dentro de una empresa ya hay ocho personas, aunque sea un sistema compacto, tiene que ser implementado. Y la ventaja, más allá de todo esto que venimos hablando, la ventaja que más valorada es por los clientes es el orden o el resultado, te diría, es el orden y la previsibilidad. Que una empresa pueda saber cuánto dinero le deben sus clientes, cuánto dinero ellos le deben a sus proveedores, cuáles son los productos que mejor van a comportarse en el próximo cuatrimestre, qué necesitan comprar ahora. Eso es previsibilidad, y sobre todo en un ambiente tan, te diría, convulsionado como es América Latina. Tal vez en España un poco, pero en América Latina las economías son completamente distintas a como es, por ejemplo, una economía en los Estados Unidos.

    [00:22:09.410] – Raymundo

    Sí, sí, sí, sí.

    [00:22:10.850] – Juan Manuel

    En donde aquí cada aspecto que aporte orden y previsibilidad es una ventaja competitiva.

    [00:22:21.380] – Raymundo

    Sí. Y hablando de ser previsores, es que Juan Manuel, hace rato que platicábamos Me sorprende y te admiro mucho el sentido de… Bueno, a lo que se ve y a lo que hemos platicado, el enfoque. No sé si a ti en lo que llevas te ha pasado eso de sale el nuevo objeto reluciente y como que te jala. Hay muchos de los que conozco, yo mismo soy un ejemplo de… O sea, me emociono con un montón de cosas y muchas veces he perdido el enfoque. ¿A ti te ha pasado? Y si te ha pasado ¿Cómo lo has controlado?

    [00:23:01.320] – Juan Manuel

    Me ha pasado y con una inversión muy grande de energía emocional e intelectual, tratar de encarrilarme y me ha ido bien en ese aspecto. Lo primero que tenemos que tener en consideración es que los seres humanos estamos cableados para que la novedad, para que lo nuevo, nos produzca satisfacción, nos produzca sentirnos bien. Y esto una vez estaba leyendo, creo que estaba leyendo a un neurocientífico norteamericano que se llama Uberman, en donde este güey decía que en la época de las cavernas, la sensación de sentirse totalmente movilizado ante algo nuevo era clave para la supervivencia. Imagínate tú y yo en una caverna y que viene otro güey y nos dice: Hay un león en la puerta. No pasa nada. Esa noticia nueva, de alguna forma, tendría que movilizarnos y pararnos los pelos para que nosotros le prestemos atención. O lo mismo con el fuego, o lo mismo cuando todavía la raza humana no había descubierto la agricultura. Encontramos un nuevo campo lleno de maíz. Vamos todos allá. Entonces, eso es natural. En el ser humano, eso también te explica la adicción en las redes sociales, el por qué TikTok con su formato. A mí me costó bastante tiempo desinstalar todas mis de redes sociales de mi iPhone.

    [00:25:05.070] – Juan Manuel

    Y eso fue, me acuerdo que una vez estaba miércoles en casa, en el living, mi esposa y mi hijo ya se habían ido a dormir. Sube una hora en TikTok y a mí esa hora me parecieron seis minutos. Dije: Acá hay algo que no está bien. Y eso es porque la novedad continua nos atrae. Entonces, imagina por un momento cómo un jefe o un empresario o un gerente, un emprendedor, se va a sentir cuando ve algo nuevo, él va a pensar que eso va a cambiar la trayectoria de su empresa o que va a cambiar la manera en la que vende. Es muy fácil distraerse. Yo voy a recomendar algo, que esta recomendación va pura y exclusivamente para empresas nuevas o para emprendedores. Obviamente, esto no aplica a empresas que ya tienen una trayectoria o que están establecidas. Hay un concepto que me gusta mucho, que se llama Product-Market-Fit. Pueden googlearlo como PMF, Product-Market-Fit, que de alguna forma es una especie de fórmula o esquema o estrategia como…

    [00:26:38.120] – Raymundo

    O métrica.

    [00:26:39.240] – Juan Manuel

    O métrica, como quieras definir, que te determina si el producto o el servicio que tu empresa está vendiendo tiene demanda. Si tiene demanda. Porque hoy lo que generalmente ocurre es que Un emprendedor o un empresario tiene una idea, la quiere implementar en el mercado y después no hay demanda. Estaba yo hace un par de años atrás escuchando a un personaje, a un pensador, realmente, es todo lo que voy a decir, es con muchísimo respeto, es una persona muy admirable, Máster Muñoz, gran profeta mexicano del mundo de los negocios que trascendió un montón de fronteras, el tipo cuenta una experiencia personal de él en donde se les ocurrieron unas toallas inteligentes, prémium, con algún bordado. Y el tipo dice que todavía tiene toallas en la casa, porque no lograron vender nada. Entonces, si al principio de una empresa se analiza que el producto o que el servicio que la empresa va a brindar realmente tenga demanda, es decir, que hay un fit por parte de marketing.

    [00:28:13.580] – Raymundo

    Un ajuste o un mensaje.

    [00:28:16.520] – Juan Manuel

    Ya a partir de eso, no es necesario perder foco en qué vender o en qué hacer. Una forma muy simple de saber si hay demanda, es con poco esfuerzo tengo que poder tener candidatos de compra, potenciales clientes. No estoy hablando de vender. Si estoy hablando de si lo que yo voy a ofrecer en el mercado con poco esfuerzo, con relativamente poco esfuerzo, me va a dar potenciales clientes gente interesada, eso ya es un indicador de que hay demanda.

    [00:29:03.070] – Raymundo

    Sí, justo. Te iba a decir que uno de los grandes temas es que esta vez la gente enseña en la academia hay muchas referencias de que vemos en redes sociales o en blog, que todavía no entienden en inglés y en Europa, o sea, ya no lo veo tan seguido, pero todavía tienen esa concepción de primero es la oferta y luego es la demanda.

    [00:29:41.520] – Juan Manuel

    Es decir- Totalmente al revés.

    [00:29:43.620] – Raymundo

    Y es totalmente al revés, porque hay un volumen impresionante de demanda que no tiene oferta. Por ejemplo, nosotros que nos movemos también en el ambiente empresarial, la cantidad de programadores o desarrolladores de software que se necesitan no se está cubriendo en este año, en el 2023, y se pronostica que para el 2025 o 2027 va a estar aún más, por eso los sueldos infladísimos, robo de personal. En industria de desarrollo de software, es una carnicería, porque es compro con dinero, te llevo, te pongo lujos, ya es un estatus de estrellas de rock. Un amigo lo trataron de comprar de una startup, una empresa de tecnología bastante fuerte, le pagaban renta, le daban gasto mensual y un automóvil más el sueldo.

    [00:30:52.170] – Juan Manuel

    Sí, yo he visto uno de los casos más extremos que he visto es una empresa en Norteamérica que le decía a sus empleados: Si me presentas a un programador a ese programador le hacemos el proceso de entrevistas y de admisión, y el programador es contratado, les regalamos a cada uno un bono de 10 000 dólares. 10 000 dólares para quien refiere al programador y 10 000 dólares de bono de bienvenida para el programador.

    [00:31:35.730] – Raymundo

    Sí, muy fuerte. Y ahí es un claro ejemplo de que ahí está la oferta. O sea, con lo que le tratamos de decir con esto es: ¿Qué es un buena oportunidad de negocio una neoacademia o neouniversidad, para crear desarrolladores de software?. No basta, no basta lo que hay ahorita. Entonces, lo que Lo decías Juan Manuel, de qué necesita la gente y luego crea el producto o servicio que necesitan, no es al revés, como lo que dices.

    [00:32:08.770] – Juan Manuel

    Eso me hace acordar, cuando, no La frase exacta no la tengo presente, pero es: ¿Cuál fue el mejor negocio durante la fiebre del oro en los Estados Unidos? Que era una fábrica de palas y picos.

    [00:32:29.380] – Raymundo

    Sí, como ahorita, más recientemente, que cuál es el mejor negocio en monedas digitales? Los exchanges, ¿no? O sea, los que…

    [00:32:41.120] – Juan Manuel

    Sí, el tema de los exchanges, en particular, creo que es un poco más complejo porque hay un factor, hay un montón de factores, como la liquidez del exchange, la seguridad, pero es la confianza. Yo tengo amigos personales que con la debacle de FTX, de no mucho tiempo atrás, de la nada, de un día para el otro, perdieron 100 000 dólares. Tipos que tenían Genuinos, 100 000 dólares en alguna criptomía en particular, como podría ser Bitcoin o Ether o Monero o LUNA. Luna fue otro… Y hoy no tienen nada. Entonces, no creo que sea tan fácil establecer un exchange. Pero, efectivamente, aquellos que se establecieron, Binance, por ejemplo.

    [00:33:44.280] – Raymundo

    Ajá. Sí, justo son las palas, son las palas de la fiebre de oro. También otra cosilla que estábamos platicando hace rato, Que te recordara de lo de los correos de lo que estaban implementando de inteligencia.

    [00:34:06.570] – Juan Manuel

    Una forma de que esto es aplicable para cualquier industria. Esto que voy a contar ahora es aplicable para cualquier industria. Es algo que es relativamente barato de construir o de contratar. Y un empresario pequeño, muy pequeño, lo puede implementar y una empresa grande también, que, por ejemplo, hacer un análisis dentro de LinkedIn. Nosotros aquí ¿Cómo se dice en México LinkedIn? ¿Linkedin o LinkedIn?

    [00:34:48.880] – Raymundo

    Yo le pregunté una vez a un representante en México y me decía: A nosotros nunca nos ha importado eso. Entonces, dije: Bueno, yo de repente digo LinkedIn, luego digo LinkedIn. Entonces, me lo dijo así, dije: Ven.

    [00:35:10.800] – Juan Manuel

    Nosotros, aquí en la Argentina, Y países limítrofes estamos acostumbrados a escuchar LinkedIn. Entonces, dentro de LinkedIn se puede hacer una búsqueda o un filtro por jefes, gerentes, empleados de empresas que trabajen en algún segmento al cual nosotros le podamos vender. Esa información de cada perfil, de cada una de esas personas, se puede analizar con ChatGPT y con una instrucción. Esto que te voy a decir se puede hacer con planillas de Google Sheet y ChatGPT. Se puede hacer con eso o se puede automatizar con software que ya existe. Y que ChatGPT genere varios mensajes absolutamente personalizados para poder contactar a cada una de esas personas, un mensaje único: Hola Carlos, te escribo desde Ega Futura, me encanta que seas gerente de ventas de PepsiCo Latinoamérica, veo que cambiaste de puesto el año pasado y que en tu network está Roberto, que también lo conozco y me gusta. Y ese tipo de personalización, sin esto, la única forma de escribir un mensaje de esas características es que lo escriba un humano. Y era un nivel de respuesta muy alto. Entonces, esto se podría hacer con planillas de cálculo y con ChatGPT o hay herramientas en el mercado que ya permiten hacer esto y se conectan directamente a LinkedIn, envían los mensajes.

    [00:37:10.310] – Juan Manuel

    Nosotros estamos usando varias y con unos resultados hermosos.

    [00:37:14.730] – Raymundo

    A mí el que más tengo dos favoritos ahí, que es Walaxi, que eso lo usé desde que nací. Wallaxi ya es como vieja escuela. Ajá, desde que era puro FR, que la dieron de alta en Francia, porque uno es ucraniano, un tipazo. Un día vino a México y ahí nos quedamos a platicar. Sí. ¿Cuál aquí sí es un clásico ya?

    [00:37:41.200] – Juan Manuel

    Tal vez no evolucionó tanto como el resto, pero es un clásico.

    [00:37:45.220] – Raymundo

    Y Octopus, Octopus-R-M. O sea, la función de ese RM que tiene, me parece que si el vendedor exprime lo suficientemente ahí, no tiene ningún tema para pasarlo al de la empresa, al ERP.

    [00:38:00.950] – Juan Manuel

    Es nuevo, que lo recomiendo, se llama Hey Rich. Rich como un alcance en inglés, sería Hey Rich, H-E-Y Rich. Googleéenlo Excelente.

    [00:38:18.380] – Raymundo

    Muy buena. No, Juan Manuel, ahí hay, por ejemplo, uno de que apenas igual recomendé, que ahorita se me fue el nombre, Creo que se llama Hello Contact o una cosa así. Pero bueno, tienen un demo que es voz, o sea, es un chatbot de voz de inteligencia artificial, que su función es dar una reunión. Solo sirve para eso. Y donde lo tienen, el demo, es con un control de plagas. En Estados Unidos es muy común empresas de control de plaga por la construcción. Nosotros en Latinoamérica somos mampostería, entonces no tenemos tanto detalle de eso. Y como usan madera, es muy común. Cierra la cita de una manera brutal, así de: Estás en una lista de espera hay cinco personas esperando la llamada, ¿quieres que te vaya contando algunos servicios que terminamos? No, quiero hablar con una persona. Bueno, te entiendo, por supuesto. Mira, para que no se que se te haga tan pesado la espera, dime de qué plaga es la que tienes. Tengo de esto. Mira, fíjate, esto lo vamos a hacer así y así. ¿Qué crees que ya solo faltan cuatro personas? ¿Qué te parece si de una vez te haciendo tu cita?

    [00:39:49.610] – Raymundo

    O sea, va trabajando la cosa así. Brutal, una cosa loquísima que sí me dejó ahí dando vueltas. Y ahorita con lo que estás diciendo de LinkedIn. A mí me gusta mucho por el sentido este que creo que por fin la gente está entendiendo, o bueno, a lo mejor yo ya limpié lo suficiente y ya no me aparece tanto, pero que LinkedIn no es para vender, es para agendar reuniones.

    [00:40:19.580] – Juan Manuel

    Para agendar reuniones, construir relaciones, agregar valor, absorber valor de gente como tú, por ejemplo, o de otros tantos pensadores y líderes de pensamiento, que de alguna forma dedican una gran parte de su tiempo a educar, y esa educación es bien recibida.

    [00:40:43.380] – Raymundo

    Sí. Bueno, ahí soy creyente que todo producto o servicio debe de llevar un proceso consultivo como el del médico. Análisis, diagnóstico, estrategia, plan de acción.

    [00:40:57.600] – Juan Manuel

    Obviamente, Ese proceso consultivo se puede dar con determinados productos o con determinados servicios. Hay otros que quedan afuera, como las bebidas.

    [00:41:12.240] – Raymundo

    El detergente.

    [00:41:13.530] – Juan Manuel

    O el detergente. No hay mucho proceso consultivo, no hay mucho detergente doméstico. Ahora, sí me parece una buena recomendación para cualquier empresa que no venda productos de consumo masivo, como como bebidas o detergentes o remeras o camisas, es que agreguen valor al mercado con consultoría gratis, con explicaciones de cómo el problema que ellos resuelven se puede resolver mejor con un producto como el de ellos o con el de la competencia. Eso, a lo largo del tiempo, vi que el mercado suele reaccionar muy bien ante ese tipo de prácticas que, según el mindset de algunos sectores, puede ser pensado como que es una pérdida de tiempo. Invertir dinero, en capacitar a los clientes o en generar el contenido en video, es una pérdida de tiempo. Y en contrapartida de eso, yo lo que he visto es que el mercado lo toma muy bien, que las decisiones de compras generalmente suelen hacerse en aquellas empresas que más presencia tienen.

    [00:42:44.300] – Raymundo

    Sí, sin duda. Oye, Juan Manuel, ya para ir cerrando, si no nos podemos aventar aquí, está bien buena la plática. Más bien, quiero invitarte a un nuevo episodio en donde hablemos más de marketing y ventas, porque Porque fíjate, una de las cosas que a mí me encanta, yo en mi análisis personal me defino a Mirador o no sé, más bien me encanta o me gusta el SaaS B2B. O sea, a mí primero el B2B me encanta y luego el SaaS, el Software as a Service, me fascina. Yo ahí de las ventas me sé y me investigo y practico y pongo así, fíjate, tanto así que luego me consigoo conejillos de indias, que les digo: No te quiero vender nada, yo esto lo cobro, pero tú tienes el momento y el producto el enfoque ideal para probar una estrategia que tengo. ¿Me darías permiso de hacerla? No, pues si es gratis, pásale. Así de fanático soy de ese sector. Entonces, Voy a estar extendiendo la invitación para que hagamos otro, pero ahorita pasemos a las preguntas cortas. Vamos, que venga la pregunta. Que venga las preguntas cortas. ¿Qué libro, recurso, o sea, qué libro, podcast, video o algo, o recurso, recomiendas, así que es tu top uno para negocios.

    [00:44:22.860] – Juan Manuel

    Un libro en particular, dos libros en particular, Multipliers, por un lado, rework, que hablamos al principio, por otro. Autores, recomiendo mucho Tim Ferries, Robin Sherma, a Tony Robbins. Son autores que en algún momento hay que dedicarles tiempo. Yo comprendo y soy consciente que la vida de un jefe, de un gerente, de un empresario, de un emprendedor, es siempre conflictiva en términos de poco tiempo y un millón de actividades, pero el tiempo para adquirir conocimiento, que puede ser a través de un libro o a través de un podcast, como es tu caso, que lo estás haciendo muy bien, ya son muchísimos años que estás llevando adelante esto o un audiolibro, es algo que hay que hacer. Definitivamente, entonces, rework, Multipliers, Tony Robbins, Tim Ferry, Robin Sherman.

    [00:45:41.200] – Raymundo

    A mí me gusta mucho Tim Ferr por la estructura mental que tiene. O sea, esa cosa de los atajos es una locura.

    [00:45:50.570] – Juan Manuel

    ¿tim Ferr es un humano fuera de lo común? Yo creo que el tipo es un prodigio y es un genio, y lo sabe y es muy humilde. Y hay una forma de encarar la vida de él, que lo dijo, que a mí me llamó mucho la atención. Y el tipo le dice al mercado, a la audiencia, a la gente: A mí no me vean como un profeta o como un genio o como un pensador. A mí véanme como un explorador que dedica una cantidad de tiempo y de energía muy grande en explorar qué funciona y qué no en el mundo de empresas, en el mundo de desarrollo personal, y propago ese conocimiento. Sí, Interesante.

    [00:46:47.070] – Raymundo

    Sí, muy interesante. La segunda, Juan Manuel. ¿Qué director general o persona o colectivo te consideras fan?

    [00:47:03.640] – Juan Manuel

    ¿me considero.?

    [00:47:06.060] – Raymundo

    Fan o fanático.

    [00:47:12.070] – Juan Manuel

    Vamos a utilizar la palabra fanático. Hay un montón de gente que admiro, de verdad, en diferentes aspectos. El poder de delegación que tiene Elon Musk a a mí me parece casi sobrenatural que un tipo como Elon pueda motivar Recurso Humano, convocar gente para que trabaje en sus diferentes empresas, llevarlas adelante, asignar actividades y que esas actividades se lleven a cabo y de manera correcta, eso me parece genial.

    [00:48:00.390] – Raymundo

    Sí, aparte, ese es uno de los grandes retos que tenemos todos cuando creamos empresas, que es el recurso humano, es de las cosas que llevan más energía en más tiempo y sin duda son las que más recompensas traen.

    [00:48:15.970] – Juan Manuel

    Absolutamente.

    [00:48:18.100] – Raymundo

    Luego, ¿cuál es la aplicación que no puedes dejar en paz?

    [00:48:24.600] – Juan Manuel

    La aplicación que no puedo dejar en paz, en términos de que la uso todo todo el tiempo?

    [00:48:31.060] – Raymundo

    General es software o aplicación, o sea que la usas todo el tiempo.

    [00:48:38.890] – Juan Manuel

    Utilizo Slack y utilizo Chatter. Chatter se puede usar adentro de Salesforce o adentro de Vida Futura, que es Chatter, es la red social de la cual te hablaba. Estoy todo el día. Slack y chat.

    [00:48:55.030] – Raymundo

    Okey, la comunicación. Sí. Para la audiencia.

    [00:49:00.630] – Juan Manuel

    Whatsapp, soy anti WhatsApp.

    [00:49:03.470] – Raymundo

    Eso, justo quería hacer notar eso.

    [00:49:08.050] – Juan Manuel

    Hay gente que me dice: No entiendo, te envío un mensaje a las ocho y media de la mañana y obtengo una respuesta a las cinco de la tarde. Y sí, entró pocas veces a WhatsApp.

    [00:49:22.170] – Raymundo

    Que justo en el empresarial, y depende qué edad tengamos, o es Slack, y los más jóvenes usan Discord, o sea, de veintitocos.

    [00:49:34.800] – Juan Manuel

    Hay mucho uso de Discord.

    [00:49:36.410] – Raymundo

    Ajá, mucho. Pero es nuestro Slack, cuando no había Discord, los de veintitantos usaban puro Slack, es como lo que decías hace rato, va evolucionando en dónde se mueve, en dónde trabaja, qué herramientas usa, ya muchas variables.

    [00:49:55.760] – Juan Manuel

    Lo que tiene una herramienta como Slack, que para quien no ¿Quién sabe qué es Slack? Podríamos decir que Slack es una especie de WhatsApp que tiene una aplicación para un ordenador y aplicaciones móviles, pero que al mismo tiempo se puede integrar con, literalmente, cientos de aplicaciones de negocios. Entonces, una aplicación de negocio, como por ejemplo Shopify, puede escribir un mensaje dentro de Slack cuando una venta grande se hace o un ERP, puede enviar un mensaje a un canal de Slack comentando que hay poco producto, hay poca existencia de un producto determinado. Y eso genera conversaciones contextuales en el ambiente de negocios.

    [00:50:52.390] – Raymundo

    Sí, sí. Exacto. Y por último, Juan Manuel, ¿qué consejo le darías a tu versión de 20 años?

    [00:51:03.330] – Juan Manuel

    Si yo tuviese que darle un consejo a una persona de 20 años que quiere crear su propia empresa y esa persona puedo ser yo mismo, le diría un montón de cosas. Lo primero, que no funde su empresa a los 20 años, cosa que hizo a los 19. Que trabaje en otra empresa como empleado, aunque sea un par de años y que trate de adquirir know-how. Yo estuve un montón de años adquiriendo know-how dentro de mi propia empresa y realmente fue muy desgastante porque había que pagar sueldos a Recursos Humanos, había que vender a los clientes, había que desarrollar software, había que dar soporte técnico, muy complejo y cometió un montón de equivocaciones. Entonces, si un joven de 20 años, primero, trabaja como empleado, va a adquirir know-how y va a saber qué errores evita. Ese es un consejo. El otro consejo, el camino de crecimiento personal, de superación personal, tiene que estar desde el día uno. Hay que crecer intelectualmente, hay que crecer como jefe, hay que crecer como compañero, hay que crecer técnicamente en lo que uno hace, hay que crecer en salud. Todo el camino de superación personal, crecimiento personal, es algo que tiene que estar desde el principio.

    [00:52:54.520] – Raymundo

    Sí, excelente. Es un constante control. Excelente, muchas gracias. Juan Manuel, ¿Cómo le hacemos para contactarte y para usar Ega Futura?

    [00:53:14.060] – Juan Manuel

    Dos caminos, egafutura. Com. Es el sitio web de Ega Futura. Ahí van a tener acceso a toda la tecnología de nuestra empresa. Y dentro de LinkedIn, Juan Manuel Garrido. Hagan una búsqueda por Juan Manuel Garrido, me van a encontrar. Respondo absolutamente a todos los mensajes y a todas las conexiones. Ega Futura. Com, Juan Manuel Garrido, dentro de LinkedIn.

    [00:53:42.140] – Raymundo

    Muchas gracias.

    [00:53:44.350] – Juan Manuel

    Muchas gracias a ti y te tomé la palabra para el próximo encuentro.

    [00:53:49.910] – Raymundo

    Excelente.

    Encuentra la versión actualizada de este artículo en este lugar: https://www.egafutura.com/negocios/juan-manuel-garrido-ventaja-podcast

    Categories
    Salesforce Transformación digital

    ¿Su IA generativa está inventando cosas? 4 formas de mantener la honestidad

    Los chatbots de IA generativa están ayudando a cambiar el panorama empresarial. Pero también tienen un problema: con frecuencia presentan información inexacta como si fuera correcta. Conocidos como «alucinaciones de IA», estos errores se producen hasta un 20% de las veces.

    Los chatbots generativos de IA están ayudando a cambiar el panorama empresarial

    «Sabemos que [la IA generativa actual] tiene una tendencia a no dar siempre respuestas precisas, pero da las respuestas con increíble confianza», dijo Kathy Baxter, arquitecta principal en la práctica de IA ética de Salesforce. «Así que puede ser difícil para las personas saber si pueden confiar en las respuestas que les da la IA generativa»

    Es posible que los miembros de la comunidad informática llamen a estas imprecisiones confabulaciones. ¿Por qué? Porque creen que el fenómeno psicológico de sustituir accidentalmente una laguna de tu memoria por una historia falsa es una metáfora más precisa del hábito de la IA generativa de cometer errores. Independientemente de cómo se refiera a estas meteduras de pata de la IA, si está utilizando la IA en el trabajo, necesita ser consciente de ellas y tener un plan de mitigación en marcha.

    La gran tendencia

    La gente se ha entusiasmado (y quizá asustado un poco, sobre todo cuando se utiliza en el trabajo) con la IA generativa y los grandes modelos lingüísticos (LLM). Y con razón. Los LLM, normalmente en forma de chatbot, pueden ayudarle a redactar mejores correos electrónicos e informes de marketing, preparar proyecciones de ventas y crear respuestas rápidas de atención al cliente, entre otras muchas cosas.

    La IA generativa y los grandes modelos de lenguaje (LLM) pueden ayudar a las empresas a mejorar sus procesos de negocio

    ¿Qué es un LLM?

    Los modelos de lenguaje amplio (LLM) son un tipo de IA que puede generar respuestas similares a las humanas procesando entradas de lenguaje natural. Los LLM se entrenan en conjuntos de datos masivos, lo que les proporciona un profundo conocimiento de un amplio contexto de información. Esto les permite razonar, hacer inferencias lógicas y extraer conclusiones


    En estos contextos empresariales, las alucinaciones de la IA pueden dar lugar a análisis imprecisos, sesgos negativos y errores que erosionan la confianza enviados directamente a sus empleados o clientes.

    La IA puede ser un factor de riesgo para la confianza de sus clientes

    «Se trata de un problema de confianza», afirma Claire Cheng, directora sénior de ciencia e ingeniería de datos de Salesforce. «Queremos que la IA ayude a las empresas en lugar de hacer sugerencias, recomendaciones o acciones erróneas que afecten negativamente a las empresas»

    Es complicado

    Algunos en la industria ven las alucinaciones de forma más positiva. Sam Altman, CEO de OpenAI, creador de ChatGPT, dijo al CEO de Salesforce, Marc Benioff, que la capacidad de producir alucinaciones demuestra que la IA puede innovar

    «El hecho de que a estos sistemas de IA se les ocurran nuevas ideas, puedan ser creativos, ahí radica gran parte de su poder», afirmó Altman. «Quieres que sean creativos cuando quieras, y objetivos cuando quieras, pero si haces lo ingenuo y dices: ‘Nunca digas nada de lo que no estés seguro al 100%’, puedes conseguir que un modelo haga eso, pero no tendrá la magia que tanto le gusta a la gente».»

    La IA puede ser creativa cuando quieras, y objetiva cuando quieras

    Por ahora, parece que no podemos resolver completamente el problema de las alucinaciones de la IA generativa sin erradicar su «magia» (De hecho, algunos líderes tecnológicos de IA predicen que las alucinaciones nunca desaparecerán del todo) Entonces, ¿qué puede hacer una empresa bienintencionada? Si estás incorporando LLMs a tu trabajo diario, aquí tienes cuatro formas de mitigar las alucinaciones generativas de la IA.

    Cómo mitigar las alucinaciones generativas de la IA

    Forma tu propio LLM

    ¿Piensas añadir IA generativa a tu negocio? No necesitas entrenar la tuya propia. Una sencilla API puede conectar sus datos a una plataforma existente.


    1. Utiliza un LLM de confianza para ayudar a reducir las alucinaciones generativas de IA

    Para empezar, haz todo lo posible para asegurarte de que tus plataformas de IA generativa están construidas sobre un LLM de confianza. En otras palabras, su LLM necesita proporcionar un entorno para los datos que esté tan libre de sesgos y toxicidad como sea posible.

    Un LLM genérico como ChatGPT puede ser útil para tareas menos sensibles como crear ideas para artículos o redactar un correo electrónico genérico, pero cualquier información que pongas en estos sistemas no está necesariamente protegida. 

    «Mucha gente está empezando a buscar modelos específicos de dominio en lugar de utilizar grandes modelos de lenguaje genéricos», afirma Cheng. «Es preferible buscar la fuente fiable de la verdad en lugar de confiar en que el modelo te dé la respuesta. No esperes que el LLM sea tu fuente de la verdad porque no es tu base de conocimientos»

    Cuando extraigas información de tu propia base de conocimientos, tendrás respuestas e información relevantes a tu alcance de forma más eficiente. También habrá menos riesgo de que el sistema de IA haga conjeturas cuando no sepa una respuesta.

    «Los líderes empresariales realmente necesitan pensar: ‘¿Cuáles son las fuentes de la verdad en mi organización?», dijo Khoa Le, vicepresidente de Service Cloud Einstein y bots en Salesforce. «Puede tratarse de información sobre clientes o productos. Pueden ser bases de conocimiento que se encuentren en Salesforce o en otro lugar. Saber dónde y tener una buena higiene en torno a mantener actualizadas estas fuentes de verdad será súper crítico.»

    2. Escribe apuntes de IA más específicos

    Los grandes resultados de IA generativa también empiezan con grandes prompts. Y puedes aprender a escribir mejores prompts siguiendo algunos consejos sencillos. Entre ellos se incluye evitar preguntas cerradas que produzcan respuestas de sí o no, que limitan la capacidad de la IA para proporcionar información más detallada. Además, haga preguntas de seguimiento para incitar a la LLM a ser más específica o proporcionar respuestas más detalladas.

    También querrá utilizar tantos detalles como sea posible para incitar a su herramienta a darle la mejor respuesta. Como guía, eche un vistazo a la siguiente pregunta, antes y después de añadir detalles. 

    • Antes: Escribe una campaña de marketing para zapatillas de deporte.
    • Después: Escribe una campaña de marketing para una nueva tienda de zapatillas online llamada Shoe Dazzle que vende a mujeres del Medio Oeste de entre 30 y 45 años. Especifica que las zapatillas son cómodas y coloridas. El precio de las zapatillas oscila entre 75 y 95 dólares y se pueden utilizar para diversas actividades, como caminar a paso ligero, hacer ejercicio en un gimnasio y entrenar para una maratón.
    • Las zapatillas son cómodas y coloridas

    ¿Necesitas ayuda con tu estrategia de IA generativa?

    Tanto si estás empezando con la IA como si ya estás innovando, esta guía es tu hoja de ruta para ofrecer un programa de confianza que combine datos, IA y CRM.


    3. Dile al LLM que sea honesto

    Otro consejo que cambia el juego es decirle literalmente al modelo de lenguaje grande que sea honesto

    «Si le haces una pregunta a un agente virtual, puedes decirle: ‘Si no sabes la respuesta, di que no la sabes'», explica Cheng

    Por ejemplo, supongamos que desea crear un informe que compare los datos de ventas de cinco grandes empresas farmacéuticas. Es probable que esta información provenga de informes anuales públicos, pero es posible que el LLM no pueda acceder a los datos más actuales. Al final de su pregunta, añada «No responda si no puede encontrar los datos de 2023» para que el LLM sepa que no debe inventar nada si esos datos no están disponibles

    También puedes hacer que la IA «muestre su trabajo» o explique cómo ha llegado a la respuesta que ha dado mediante técnicas como la cadena de pensamiento o el árbol de pensamiento. La investigación ha demostrado que estas técnicas no sólo ayudan a la transparencia y la confianza, sino que también aumentan la capacidad de la IA para generar la respuesta correcta.

    La IA puede mostrar su trabajo o explicar cómo llegó a la respuesta que dio

    4. Reducir el impacto en los clientes

    Le ofrece algunas cosas a tener en cuenta para proteger los datos de sus clientes y sus relaciones comerciales. 

    • Sé transparente. Si utiliza un chatbot o un agente virtual respaldado por IA generativa, no haga pasar la interfaz como si los clientes estuvieran hablando con un humano. En su lugar, revele el uso de IA generativa en su sitio web. «Es muy importante dejar claro de dónde procede esta información y con qué datos la estás entrenando», afirma Le. «No intente engañar al cliente
    • Siga las leyes y normativas locales. Algunos municipios le exigen que permita a los usuarios finales optar por esta tecnología; incluso si el suyo no lo hace, es posible que desee ofrecer un opt-in. 
    • Siga las leyes y normativas locales
    • Protéjase de los problemas legales. La tecnología de IA generativa es nueva y cambia rápidamente. Trabaje con sus asesores legales para comprender los problemas más recientes y siga las normativas locales. 
    • Protéjase de los problemas legales
    • Asegúrese de que existen salvaguardas. Al seleccionar un proveedor de modelos, asegúrese de que dispone de salvaguardas como la detección de toxicidad y sesgos, el enmascaramiento de datos confidenciales y defensas contra ataques de inyección de información como Einstein Trust Layer de Salesforce.
    • Cuidado con los datos confidenciales

    Las alucinaciones generativas de la IA son una preocupación, pero no necesariamente un punto de ruptura. Diseña y trabaja con esta nueva tecnología, pero mantén los ojos bien abiertos sobre la posibilidad de cometer errores. Cuando hayas utilizado tus fuentes de la verdad y hayas cuestionado el trabajo, podrás adentrarte en tus tratos comerciales con más confianza.

    Diseña y trabaja con esta nueva tecnología

    Empieza hoy mismo con un LLM

    La Plataforma Einstein 1 te ofrece las herramientas que necesitas para crear fácilmente tus propias aplicaciones impulsadas por LLM. Trabaja con tu propio modelo, personaliza un modelo de código abierto o utiliza un modelo existente a través de APIs. Todo es posible con Einstein 1.


    Categories
    Discover Magazine Enterprise Software Inteligencia Artificial Salesforce

    Modelado de secuencias largas con XGen: Un LLM de 7B entrenado con secuencias de entrada de 8K de longitud

    TLDR

    Entrenamos una serie de 7B LLMs llamados XGen-7B con atención densa estándar en hasta 8K de longitud de secuencia para hasta 1.5T tokens. También afinamos los modelos en datos de instrucción de dominio público. Los principales resultados son:

    • En pruebas estándar de PNL, XGen consigue resultados comparables o mejores que los LLM de código abierto más avanzados (por ejemplo, MPT, Falcon, LLaMA, Redpajama, OpenLLaMA) de tamaño de modelo similar.
    • Nuestra evaluación específica sobre modelos de secuencias largas muestra los beneficios de nuestros modelos 8K-seq sobre los modelos 2K- y 4K-seq.
    • XGen-7B archiva resultados igualmente sólidos tanto en texto (por ejemplo, MMLU, QA) como en tareas de código (HumanEval).
    • Coste de formación de 150.000 dólares en tokens de 1T según los precios de Google Cloud para TPU-v4.

    Por escrito: https://arxiv.org/abs/2309.03450
    Codebase: https://github.com/salesforce/xGen
    Model Checkpoint: https://huggingface.co/Salesforce/xgen-7b-8k-base


    Por qué XGen-7B con 8K de longitud de secuencia

    A medida que los LLM se hacen omnipresentes, sus aplicaciones a secuencias largas han sido un punto clave, especialmente para aplicaciones como el resumen de texto (potencialmente intercalado con otras fuentes de datos como tablas e imágenes), la escritura de código y la predicción de secuencias de proteínas, que requieren que el modelo considere eficazmente las dependencias estructurales de larga distancia. Un contexto amplio permite a un LLM preentrenado examinar datos de clientes (por ejemplo, documentos que el LLM no utilizó en el entrenamiento) y responde a consultas útiles de búsqueda de información.

    Aún así, la mayoría de los LLM de código abierto (por ejemplo, LLaMA, MPT, Falcon) han sido entrenados con un máximo de 2K tokens de longitud de secuencia, lo que supone una limitación clave en el modelado de secuencias largas. Aún no se han evaluado soluciones de tiempo de inferencia como ALiBi para modelos más grandes (por ejemplo, MPT-7b-StoryWriter-65k+). Trabajos recientes sobre el escalado de modelos han demostrado que, para un presupuesto de computación determinado, los mejores resultados no se obtienen necesariamente con los modelos más grandes, sino con modelos más pequeños entrenados con más datos (medidos por el número de tokens). Por lo general, también se prefiere un modelo más pequeño por la eficacia de la inferencia durante el servicio, incluido el servicio en el dispositivo. En vista de ello, entrenamos una serie de LLM de 7B denominados XGen con atención densa estándar en secuencias de hasta 8K de longitud para un máximo de 1,5T tokens. También afinamos los modelos XGen en datos de instrucción de dominio público, creando sus homólogos afinados por instrucción (XGen-7B-inst).

    Modelo

    Descripción 

    XGen-7B-4K-base

    Entrenamos para 800B tokens con una longitud de secuencia de 2k tokens primero, luego para otros 400B tokens (total 1.2T tokens) con 4k. Liberado bajo Apache-2.0.

    XGen-7B-8K-base

    Inicializado con XGen-7B-4K-base y entrenado para 300B tokens más (total 1.5T tokens) con 8K de longitud de secuencia. Liberado bajo Apache-2.0.

    XGen-7B-{4K,8K}-inst

    XGen-7B-{4K,8K}-inst

    Supervised fine tuned on public domain instructional data including databricks-dolly-15k, oasst1, Baize and GPT-related datasets. Publicado únicamente con fines de investigación.


    Datos de pre-entrenamiento

    Empleamos una estrategia de entrenamiento en dos etapas, en la que cada etapa utiliza una mezcla de datos diferente.

    Primera etapa (1,37T tokens)

    Los datos de lenguaje natural son una mezcla de datos disponibles públicamente. Los datos de código son una mezcla del subconjunto de GitHub del conjunto de datos de RedPajama y los datos de código de Apex que recopilamos.

    Segunda etapa (110B tokens)

    Para apoyar mejor las tareas de generación de código, en la segunda etapa mezclamos más datos de código de Starcoder con los datos de la Etapa 1.

    Nombre del conjunto de datos

    Número efectivo de fichas (B)

    Muestreo prop. (%)

    Datos en lenguaje natural

    1309,99

    95,31

    Datos del código

    64,53

    4,69

    Total

    1374,52

    100

    Nombre del conjunto de datos

    Número de fichas utilizadas (B)

    Prop. de muestreo. (%)

    Datos de la fase 1

    55

    50%

    BigCode Starcoder

    55

    50%

    Usamos tiktoken de OpenAI para tokenizar nuestros datos. Añadimos tokens adicionales para espacios en blanco consecutivos y tabuladores, así como los tokens especiales descritos en el artículo de Starcoder.


    Detalles del entrenamiento

    Los modelos XGen-7b se entrenan con nuestra biblioteca interna JaxFormer, que facilita un entrenamiento eficiente de los LLM bajo un paralelismo tanto de datos como de modelos optimizado para el hardware TPU-v4. La receta de entrenamiento y la arquitectura del modelo siguen el modelo LLaMA, mientras que nosotros realizamos dos exploraciones adicionales. En primer lugar, investigamos la aparición de los denominados «picos de pérdida» [PaLM, loss spikes] durante el entrenamiento, es decir, la pérdida estalla de repente temporalmente mientras se desconoce la causa raíz de estos picos. En segundo lugar, los modelos XGen admiten secuencias de hasta 8.192 tokens (en lugar de los 2.048 habituales), por lo que introducimos el entrenamiento por etapas.

    Picos de pérdida

    A medida que los modelos se escalan a tamaños mayores, el propio entrenamiento es cada vez más sensible a las inestabilidades, que provocan un rendimiento deficiente del modelo si no se abordan con cuidado. En nuestra exploración, hemos reunido pruebas de varios factores que contribuyen individualmente a un entrenamiento inestable. Estos hallazgos preliminares incluyen «circuitos secuenciales sobre paralelos», «swish-GLU sobre GeLU», «RMS-Norm sobre Layer-norm». Específicamente, los circuitos paralelos ampliamente utilizados, que paralelizan el cómputo de autoatención y feed-forward como se adoptó en [GPT-J, PaLM, CodeGen] pueden afectar a la estabilidad del entrenamiento.

    La figura anterior muestra la pérdida en términos de entropía cruzada a lo largo del tiempo siguiendo las conocidas leyes de escalado. Sorprendentemente, el entrenamiento no sufre inestabilidades ni picos de pérdida. Los dos picos de pérdida representados en la figura se esperan cuando se amplía la longitud de la secuencia, por ejemplo de 2k a 4k tokens, ya que el modelo necesita adaptarse a secuencias más largas.

    Longitud de la secuencia

    El entrenamiento con secuencias más largas es computacionalmente desproporcionadamente costoso ya que la complejidad de la autoatención es cuadrática, es decir, el proceso de entrenamiento es lento. Para mitigar la lentitud del entrenamiento, introducimos el entrenamiento por etapas con una longitud de secuencia creciente. Primero, se observan 800B tokens con una secuencia de 2k tokens, luego 400B tokens con 4k, finalmente, 300B tokens con 8k de longitud.

    Verificamos la adaptación a secuencias más largas calculando la perplejidad media en cada posición de token en un conjunto de validación retenido que contiene documentos de 8k de longitud de secuencia o más. Si el modelo aprende a utilizar la secuencia completa, es de esperar que la perplejidad disminuya con la longitud de la secuencia, ya que los tokens anteriores contienen información para el siguiente token previsto. Es decir, para una frase larga, cuanto más contexto se proporcione en forma de palabras anteriores, más fácil será adivinar la palabra siguiente. La figura anterior muestra que XGen, en cada etapa, aprende a utilizar contextos más largos, de hasta 8k de longitud de secuencia.


    Resultados en Benchmarks Estándar

    (i) MMLU

    En primer lugar consideramos el benchmark Measuring Massive Multitask Language Understanding (ver ejemplos aquí), que es más reciente que otros, por lo que podría decirse que es menos susceptible a la contaminación de datos, como se ha informado en estudios recientes (véase la página 32 del documento GPT-4 y una discusión relacionada aquí), y se ha utilizado sistemáticamente como punto de referencia de evaluación. Recientemente, sin embargo, se ha informado de incoherencias en la notificación de las puntuaciones MMLU, lo que dio lugar a clasificaciones erróneas en la tabla de clasificación Open LLM de Hugginface; de hecho, Huggingface tuvo que escribir más tarde un blog para aclararlo. En nuestro trabajo, seguimos el estándar MMLU original, que es coherente con los resultados publicados (es decir, en LLaMA).

    Resultados del aprendizaje en contexto de 5 disparos MMLU: En primer lugar, mostramos los resultados en el escenario de evaluación original (y recomendado) de 5 disparos, en el que el LLM recibe 5 demostraciones. XGen consigue los mejores resultados en la mayoría de las categorías, también en media ponderada.

    Modelos

    Humanidades

    STEM

    Ciencias Sociales

    Otros

    Promedio ponderado

    XGen-7b

    33.8

    30,7

    40,0

    41.5

    36,3

    LLaMA-7b

    33.9

    30,6

    38,2

    38,2

    35.1

    OpenLLaMA-7b

    28.1

    28,5

    31,2

    32.8

    29,9

    Falcon-7b

    26,5

    25.4

    29.2

    26.8

    26.9

    MPT-7b

    25.9

    26,2

    26,9

    28,1

    26.7

    Redpajama-7b

    26.1

    25.2

    27.4

    26.7

    26,3

    Cerebras-GPT-13b

    26,1

    26.5

    25,8

    26,6

    26.2

    Dolly-v2-12b

    26.9

    25,7

    25,3

    26,5

    26.2

    OPT-13b

    26,2

    24,3

    23.4

    26

    25.1

    GPT-J-6b

    25,9

    24.0

    24.0

    25.8

    25.1

    Resultados de 0 disparos de la MMMLU: En MMLU tiro cero, de forma similar vemos buenos resultados aunque la diferencia con LLaMA es generalmente menor aquí.

    Modelos

    Humanidades

    Humanidades

    STEM

    Ciencias Sociales

    Otros

    Promedio ponderado

    XGen-7b

    31.4

    27,8

    32,1

    37.2

    32,1

    LLaMA-7b

    32.3

    27,1

    31,3

    36.8

    32,0

    OpenLLaMA-7b

    28.0

    27,6

    28,9

    30,1

    28.6

    MPT-7b

    27,4

    25.2

    26.0

    30.7

    27.4

    Redpajama-7b

    27.5

    25.5

    24,2

    25,0

    25.8

    GPT-J-6b

    25,3

    24.5

    25,5

    27,6

    25.7

    Dolly-v2-12b

    26.2

    26.0

    24.0

    24.9

    25.4

    Cerebras-GPT-13b

    24,3

    25.0

    23.0

    26.0

    24.6

    OPT-13b

    26,3

    23,3

    23.6

    23.6

    24.4

    Falcon-7b

    24.8

    21.7

    24.0

    24,4

    23.9

    (ii) General Zero-shot Results

    A continuación, presentamos los resultados generales de zero-shot en tareas generales de PLN que implican razonamiento de sentido común y GC.

    Modelos

    MMLU

    -wavg

    ARC_ch

    Hella Swag

    Winogrande

    TruthfulQA

    BoolQ

    PiQA

    OpenBookQA

    XGen-7b

    32.1

    41.2

    74.2

    64,9

    39,1

    74.3

    75,5

    40,2

    LLaMA-7b

    32.0

    44,8

    76,2

    69.6

    34

    74,9

    78,7

    44.2

    Falcon-7b

    23.9

    43.4

    76,4

    67,2

    34,3

    73.8

    79,4

    44,0

    MPT-7b

    27.4

    41,7

    76,1

    68.6

    33,4

    74,1

    79.1

    41,8

    OpenLLaMA-7b

    28.6

    38,7

    71,8

    67.0

    35,2

    70,6

    76.0

    39.0

    Redpajama-7b

    25.8

    39.1

    70.3

    63.8

    33,3

    69,3

    76.9

    40,0

    GPT-neox-20b

    24.5

    41,1

    70,5

    66.1

    31,4

    64,9

    76,7

    38.8

    OPT-13b

    24.4

    35.8

    69,9

    64,7

    33,9

    65.0

    75,7

    39.8

    GPT-J-6b

    25,7

    36,3

    66.2

    64,5

    36,0

    65,4

    75.4

    38,2

    Dolly-v2-12b

    25.4

    39.6

    70.8

    61.8

    34,4

    56,3

    75.4

    39,2

    Cerebras-GPT-13b

    24.6

    32.4

    59.4

    60.8

    39,2

    61,1

    73.5

    35,8

    StableLM-alpha-7b

    24.4

    27,0

    40,7

    51.5

    41,7

    59,0

    65,8

    32.4

    (iii) Resultados en la generación de código

    Para evaluar la capacidad de generación de código de XGen a partir de instrucciones en lenguaje natural (docstrings), lo evaluamos en el conocido benchmark HumanEval. Fijamos la temperatura de muestreo en 0,2, p en 0,95 (para muestreo top-p), y num_samples_per_task (n) en 200. Informamos de los resultados estándar de cero disparos con la métrica pass@1.

    Modelos

    pass@1

    XGen-7b

    14.20

    LLaMA-7b

    10,38

    OpenLLaMA-7b

    0 (Los espacios en blanco consecutivos se tratan como uno, rompiendo la sintaxis de Python)

    Falcon-7b

    0 (no generó código con sentido)

    MPT-7b

    15.90

    Redpajama-7b

    5.24


    Resultados en tareas de generación de secuencias largas

    Para seguir evaluando nuestro modelo XGen-7b 8k en comparación con las líneas de base que se limitan a entradas de 2k, pasamos a la generación de diálogos largos, el resumen de textos y la garantía de calidad. Todas estas tareas se benefician del procesamiento y la comprensión de un contexto largo para generar una respuesta correcta. Hay que tener en cuenta que, para estas tareas, la mayoría de los modelos base preentrenados no consiguieron generar una respuesta plausible debido a la dificultad de la tarea. Por tanto, utilizamos modelos ajustados a las instrucciones.

    Diálogo

    Para evaluar las capacidades de comprensión y resumen de diálogos largos, presentamos los resultados de tres tareas de resumen de diálogos: AMI, ForeverDreaming (FD) y TVMegaSite (TMS). La longitud media de las fuentes de estos conjuntos de datos es de aproximadamente 5.570, 6.466 y 7.653, respectivamente. Evaluamos específicamente muestras de menos de 8K de longitud utilizando varios modelos ajustados a las instrucciones. En particular, cuando no se aplicó el truncamiento de la entrada, tanto MPT-7b-inst como Alpaca-inst no obtuvieron buenos resultados en este escenario. Nuestro modelo (XGen-7B-inst) obtuvo las puntuaciones ROUGE más altas en todas las métricas.

    Modelo

    AMI

    FD

    TMS

    R-1

    R-2

    R-L

    R-1

    R-2

    R-L

    R-1

    R-2

    R-L

    XGen-7b-inst

    31.34

    8.25

    17.00

    29.34

    5.39

    16.43

    26.39

    3.94

    13.71

    Falcon-7b-inst

    14.89

    1,97

    9,28

    18,90

    1.80

    9,37

    18,90

    1,80

    9.37

    MPT-7b-inst

    11,95

    1,88

    8.10

    14.27

    1.40

    8.89

    19.80

    2,39

    10,23

    Alpaca-7b-inst

    9.69

    1,77

    6,43

    16,26

    1.56

    10.66

    12.26

    1.15

    7.30

    Control de calidad de forma larga

    A continuación, evaluamos nuestro XGen-7b-inst en una tarea de control de calidad de forma larga que hemos diseñado internamente. Pedimos a ChatGPT que genere preguntas a partir de (a) documentos largos de Wikipedia que abarcan cuatro dominios: Física, Ingeniería, Historia y Entretenimiento, y (b) resúmenes de estos documentos. A continuación, consultamos los LLM para generar respuestas a estas preguntas. Las respuestas suelen tener hasta 256 tokens. Utilizamos GPT-4 para evaluar la calidad de las respuestas en términos de coherencia (estructura y organización) y relevancia (relevancia de la respuesta generada para la pregunta y el documento contextual) en una escala de 0 a 3. A partir de los resultados que se muestran a continuación, vemos que nuestro modelo obtiene puntuaciones más altas en diferentes aspectos en comparación con las líneas de base consideradas.

    Modelo

    Métricas

    Coherencia

    Relevancia

    Avg. Ratings

    XGen-7b-inst

    2,55

    2,52

    2.54

    MPT-7b-inst

    2,5

    2.45

    2,48

    Alpaca-7b-inst

    1.65

    1,91

    1.78

    Falcon-7b-inst

    2,26

    2.13

    2,19

    Resumen

    Aquí evaluamos nuestro modelo en dos conjuntos de datos de resumen de texto incluidos en el SCROLLS Benchmark, a saber, QMSum y GovReport. Cubren dos ámbitos diferentes: conversaciones en reuniones e informes gubernamentales. Además, los datos de QMSum incluyen consultas específicas en lenguaje natural que indican al modelo los aspectos clave del documento fuente que deben incluirse en el resumen. Vemos que nuestro modelo XGen-7b supera a otras líneas de base en estas tareas.

    Modelo

    QMSum

    InformesGov

    R-1

    R-2

    R-L

    R-1

    R-2

    R-L

    XGen-7b-inst

    27.96

    5,66

    24.26

    21.28

    8.19

    20.08

    Falcon-7b-inst

    15.68

    2,81

    14,01

    17.8

    6,13

    16,66

    MPT-7b-inst

    21.75

    4.38

    19.29

    18.11

    6.96

    17.11

    Redpajama-7b-inst

    19.81

    2.66

    17.58

    19.63

    6,93

    18,48

    Como vemos resultados alentadores de nuestros modelos XGen-7b en estas tareas de secuencias largas, nos gustaría señalar que como estos modelos no están entrenados con los mismos datos de instrucción, no son estrictamente comparables.


    Nota sobre Riesgos Potenciales

    Por último, a pesar de nuestro esfuerzo por abordar los riesgos de sesgo, toxicidad y alucinaciones tanto en las etapas de pre-entrenamiento como de ajuste fino, al igual que otros LLMs, los modelos XGen-7b no están libres de dichas limitaciones. Esperamos que nuestra base de código de código abierto ayude a otros investigadores a comprender mejor estos retos y a mejorar estas limitaciones clave para que la IA sea beneficiosa para todos.

    Categories
    Developers Tutoriales de Salesforce

    Prompt Engineering para desarrolladores de Salesforce: Mejora de la eficacia y la productividad ☁️

    Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores, consultores, administradores y arquitectos de Salesforce para toda Iberoamérica.

    El enlace a la publicación original, lo encontrarás al final de este artículo.

    El artículo trata sobre técnicas de ingeniería de instrucciones para desarrolladores de Salesforce. La ingeniería de avisos implica la creación de avisos claros y específicos para comunicarse con modelos de lenguaje de gran tamaño (LLM) de forma eficaz. El objetivo es perfeccionar las instrucciones a través de un proceso iterativo para lograr los resultados deseados. En este artículo se destacan tres técnicas avanzadas: la indicación de roles, el uso de delimitadores y la indicación de pocos disparos. Estas técnicas pueden aplicarse a diversos casos de uso, como la generación de diagramas, la generación de metadatos XML y la generación de código. El autor subraya la importancia de la ingeniería de avisos para mejorar la eficacia y ofrece un diagrama de flujo para ayudar a los desarrolladores a decidir cuándo utilizarla. El artículo concluye mencionando la necesidad de seguridad al utilizar herramientas de IA generativa e introduce la capa de confianza de Einstein para la adopción segura de la IA generativa en la plataforma Salesforce Einstein 1.

    Esta es una traducción realizada por EGA Futura, y este es el link a la publicación original: https://developer.salesforce.com/blogs/2023/12/prompt-engineering-for-salesforce-developers.html