Skip to content

Etiqueta: LLM

Modelado de secuencias largas con XGen: Un LLM de 7B entrenado con secuencias de entrada de 8K de longitud

TLDR

Entrenamos una serie de LLMs 7B llamados XGen-7B con atención densa estándar hasta 8K de longitud de secuencia para hasta 1.5T tokens. También afinamos los modelos en datos de instrucción de dominio público. Los principales resultados son:

  • En pruebas de PNL estándar, XGen consigue resultados comparables o mejores
Seguir leyendo

Dentro de CodeGen: Nuestro LLM interno de código abierto ☁️

Dentro de CodeGen: Nuestro LLM interno de código abierto ☁️

CodeGen, parte de la propia familia de modelos de lenguaje de gran tamaño (LLM) de Salesforce, es un LLM de código abierto para la comprensión y generación de código.

CodeGen, parte de la propia familia de modelos de lenguaje de gran tamaño (LLM) de Salesforce

The post Dentro de CodeGen, nuestro LLM interno de código abierto appeared first on Blog de desarrolladores de Salesforce.

Seguir leyendo

CodeGen2.5: pequeño, pero poderoso

Contribución equitativa entre Erik Nijkamp y Hiroaki Hayashi.

Paper
Code
Tweet

Abstract

La familia de modelos CodeGen de Salesforce crece con CodeGen2.5 – ¡un modelo pequeño, pero poderoso! Mientras que ha habido una tendencia reciente de grandes modelos de lenguaje (LLM) de tamaño cada vez mayor, mostramos que un modelo pequeño

CodeGen2.5 – pequeño pero poderoso

Seguir leyendo

El código abierto y el futuro de la IA empresarial

Introducción

El código abierto se ha convertido en uno de los temas más candentes de la IA, y la fanfarria es bien merecida. La comunidad de código abierto mantiene un ritmo ágil con el estado de la técnica, ofreciendo modelos cada vez mayores y más capaces que a menudo compiten de forma impresionante con sus homólogos comerciales. Es una época apasionante

Seguir leyendo

El poder cada vez mayor de los modelos pequeños

La reciente cobertura mediática de la IA ha seguido un patrón familiar: se lanza un nuevo modelo masivo, que se da a conocer a los beta testers y, finalmente, al público, pero apenas pasan uno o dos meses antes de que empiecen a surgir rumores sobre el modelo aún mayor que supuestamente se está formando para sustituirlo.

La IA se ha convertido en una de las tecnologías más populares del mundo

Seguir leyendo

Por qué sacar el máximo partido de la IA en la banca empieza por los seres humanos adecuados

El sector bancario está entusiasmado con los beneficios de la IA, pero también desconfía de ella. Avanzar con confianza exige un enfoque de sentido común para la transformación que empiece con seres humanos que sepan de lo que están hablando.

Por qué aprovechar al máximo la IA en la banca empieza por los seres humanos adecuados

El post Por qué sacar el máximo partido de la IA en la banca empieza por los humanos adecuados appeared first on Blog de Salesforce EU.

La IA en la banca empieza por los humanos adecuados

Seguir leyendo

Desarrollo de la nueva XGen: Los LLM fundacionales de Salesforce

Por Shafiq Rayhan Joty y Scott Nyberg En nuestra serie «Engineering Energizers» Q&A, examinamos las trayectorias profesionales que han formado a los líderes de ingeniería de Salesforce. Conozca a Shafiq Rayhan Joty, Director de Salesforce AI Research. Shafiq codirige el desarrollo de XGen, una serie de innovadores modelos de lenguaje de gran tamaño (LLM) de distintos tamaños. Proporcionando conocimientos generales críticos, […]

El post Desarrollando el nuevo XGen: Salesforce’s Foundational Large Language Models appeared first on Blog de ingeniería de Salesforce.

Seguir leyendo

Plan de IA sostenible de Salesforce: Donde la responsabilidad se une a la innovación

Salesforce se guía por sus valores fundamentales de confianza, éxito del cliente, innovación, igualdad y sostenibilidad. Estos valores se reflejan en su compromiso de desarrollar e implantar de forma responsable nuevas tecnologías como la IA generativa en nombre de las partes interesadas, desde los accionistas hasta los clientes y el planeta. Los grandes modelos lingüísticos (LLM) que potencian la IA generativa requieren enormes […]

The post Descubriendo el plan de Salesforce para una IA sostenible: donde la responsabilidad se une a la innovación appeared first on Blog de ingeniería de Salesforce.

La IA generativa requiere una gran cantidad de recursos para ser sostenible

Seguir leyendo

Prompt Engineering para desarrolladores de Salesforce: Mejora de la eficacia y la productividad ☁️

Prompt Engineering para desarrolladores de Salesforce: Mejora de la eficacia y la productividad ☁️

Las técnicas de ingeniería generativa, si se hacen bien, pueden ayudarle a hacer las cosas bien, mejor y, lo que es más importante, más rápido.

Las técnicas de ingeniería generativa pueden ayudarle a hacer las cosas bien, mejor y, lo que es más importante, más rápido

The post Ingeniería de prompts para desarrolladores de Salesforce appeared first on Blog de desarrolladores de Salesforce.

Seguir leyendo

Investigación de Salesforce en NeurIPS 2023

Resumen de la conferencia

La semana que viene se celebrará en Nueva Orleans, Luisiana, la trigésimo séptima Conferencia anual sobre Sistemas de Procesamiento de Información Neuronal (NeurIPS), del domingo 10 al sábado 16 de diciembre. NeurIPS incluirá charlas invitadas, demostraciones y presentaciones orales y en póster de los trabajos aceptados. NeurIPS 2023 se celebrará de nuevo en el

Sede de la Universidad de Nueva Orleans

Seguir leyendo

CodeChain: Hacia la generación de código modular mediante una cadena de autorrevisiones y submódulos representativos

TL;DR: Con CodeChain, un gran modelo de lenguaje (LLM) preentrenado puede resolver problemas de codificación desafiantes integrando la modularidad en muestras de generación y auto-mejorarse empleando una cadena de auto-revisiones en submódulos representativos. CodeChain puede lograr resultados de vanguardia tanto con los modelos GPT de OpenAI como con los LLM de código abierto en pruebas de codificación exigentes como

Seguir leyendo

De copiloto a coorganizador

Introducción

En los últimos meses he escrito mucho sobre lo que yo llamo Large Action Models, o LAMs, una variación más activa y autónoma de los LLMs que no se limitan a generar contenido como texto o imágenes, sino que realizan tareas completas e incluso participan en flujos de trabajo, ya sea junto a personas

Seguir leyendo

Einstein para Flow: Llevando la innovación de la IA a la próxima generación de automatización – Blog de ingeniería de Salesforce

Por Vera Vetter, Zeyuan Chen, Ran Xu y Scott Nyberg En nuestra serie de preguntas y respuestas «Engineering Energizers», examinamos las trayectorias profesionales que han formado a los líderes de ingeniería de Salesforce. Conozca a Vera Vetter, Directora de gestión de productos de Salesforce AI Research y Co-Directora de producto de Einstein for Flow, un producto de IA revolucionario que está revolucionando la automatización del flujo de trabajo de Salesforce. […]

The post Einstein for Flow: Llevando la innovación de la IA a la próxima generación de automatización appeared first on Blog de ingeniería de Salesforce.

Seguir leyendo

La puntuación predictiva de clientes potenciales y la IA cambian las reglas del juego

Le ahorra tiempo y dinero, y ahora es más inteligente. Descubra cómo la IA puede llevar la puntuación predictiva de prospectos al siguiente nivel.

La puntuación predictiva de prospectos + IA cambia las reglas del juego

El post Predictive Lead Scoring + AI is a Game Changer appeared first on Salesforce EU Blog.

La puntuación predictiva de prospectos + IA cambian las reglas del juego appeared first on Salesforce EU Blog

Seguir leyendo

Cómo aprobar el examen de certificación Salesforce Certified AI Associate

Cómo aprobar el examen de certificación Salesforce Certified AI Associate

Última actualización el 7 de septiembre de 2023 por Rakesh Gupta Como nuevo Salesforce Certified AI Associate, comparto mis experiencias de estudio contigo y quiero que seas el próximo en superarlo Así que, ¡prepárese y sumérjase! 👉 Ya que estás aquí, es posible que desees

El post Cómo aprobar el examen de certificación Salesforce Certified AI Associate appeared first on Campeón de la Automatización.

Cómo aprobar el examen de certificación Salesforce Certified AI Associate appeared first on Campeón de la Automatización

Seguir leyendo

¿Sabe qué hay en la hoja de ruta de Salesforce para la IA?

Después de la plétora de emocionantes anuncios de IA en Dreamforce, sabemos que hay un montón de emocionantes innovaciones de IA a la vuelta de la esquina. Pero con tanto que esperar, ¿cómo podemos estar al tanto de lo que está por venir y cuándo? Las hojas de ruta de productos de Salesforce son la clave para estar al tanto de lo que se […]

planea y [..

La entrada ¿Sabe qué hay en la hoja de ruta de la IA de Salesforce? appeared first on Salesforce Ben.

Seguir leyendo

Introducción a los agentes autónomos ☁️

Introducción a los agentes autónomos ☁️

Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .

El enlace a la publicación original, lo encontrarás al final de este artículo.

Introducción a los agentes autónomos | Blog de desarrolladores de Salesforce

El panorama de la IA está cambiando a un ritmo tan rápido que las tecnologías futuristas como la IA autónoma ya están mucho más cerca de lo que piensas. Esto se debe a la forma en que los grandes modelos de lenguaje (LLM) están comenzando a incorporarse en casi todas las formas en que interactúa con las aplicaciones. Para los desarrolladores, esto supone un cambio en la forma en que abordamos la creación de aplicaciones, desde las formas en que las reunimos hasta la creación con una UX conversacional completamente nueva.

En esta publicación de blog, veremos cómo los agentes autónomos incorporan la IA a la forma en que funcionan las aplicaciones y, al mismo tiempo, nos acercan a un mundo autónomo.

¿Qué son los agentes autónomos?

En nuestro panorama tecnológico, los agentes son sistemas avanzados que aprovechan el poder de los modelos lingüísticos para razonar y tomar decisiones. Lo que los diferencia de otro bot o marco es el hecho de que los agentes pueden realizar tareas en su nombre utilizando herramientas y memoria.

Las herramientas son extensiones de las capacidades de un modelo de lenguaje, que cierran brechas en su conocimiento y le permiten interactuar con fuentes de datos externas o recursos computacionales. Con estas herramientas, un modelo de lenguaje puede obtener datos en tiempo real, ejecutar tareas y utilizar los resultados para informar sus acciones posteriores. Por ejemplo, si un modelo de lenguaje conoce información solo hasta una fecha determinada, las herramientas pueden proporcionarle información más actualizada de la web, bases de datos u otras fuentes externas.

La memoria proporciona a los agentes la capacidad de recordar interacciones pasadas, lo que puede ser esencial para la continuidad de las tareas y el aprendizaje de acciones anteriores. Esta memoria puede ser de corta duración, centrándose en interacciones recientes, o de largo plazo, recordando eventos o patrones pasados importantes que son relevantes para situaciones actuales.

Juntos, estos elementos transforman un modelo de lenguaje en un agente que no sólo puede comprender y generar texto, sino también actuar sobre esa comprensión en contextos del mundo real. Dichos agentes pueden ejecutar soluciones de forma autónoma para los usuarios, pero también pueden integrar la intervención humana, especialmente en escenarios donde existen incertidumbres o excepciones.

¿Cómo funcionan los agentes?

Se han creado muchos marcos para respaldar el avance de los agentes, siendo algunos de los más populares AutoGPT y LangChain . Generalmente, los agentes siguen un patrón similar: el marco ReAct para razonar y actuar en modelos lingüísticos .

Este marco consta de una serie de pasos:

  1. El usuario proporciona información.
  2. El agente “piensa” en la respuesta adecuada
  3. El agente determina la acción, selecciona la herramienta relevante y decide la entrada para esa herramienta.
  4. La herramienta ofrece un resultado.
  5. El proceso recorre los pasos 2 a 4 hasta que el agente determina que la tarea está completa

Este proceso es el que empieza a hacer autónomo al agente. Al confiar en el LLM para pensar en la respuesta y determinar las acciones apropiadas necesarias, actúa por sí solo para crear el resultado deseado.

Usando LangChain como ejemplo, digamos que queremos crear una aplicación que permita a un cliente gestionar sus pedidos. Primero, podríamos darle a la aplicación acceso a nuestra base de datos de pedidos, base de datos de clientes y API de socios de envío. Luego, configuraríamos una serie de herramientas a las que puede acceder la aplicación para consultar datos, actualizarlos y utilizar IA generativa para redactar una respuesta.

Este agente de gestión de pedidos dispone de seis herramientas que puede utilizar “dentro de su dominio de conocimiento”:

  1. Query Orders es una herramienta que puede consultar pedidos desde una base de datos a través de una API conectada a una base de datos PostgreSQL.
  2. Update Order es una herramienta que puede actualizar un único pedido desde una base de datos a través de una API conectada a una base de datos PostgreSQL.
  3. Manage Tracking Info es una herramienta que puede gestionar un envío a través de una API proporcionada por una empresa de envío
  4. Get Customer es una herramienta que puede consultar datos de clientes desde una API conectada a un sistema CRM
  5. Update Customer es una herramienta que puede actualizar los datos de los clientes a través de una API conectada a un sistema CRM
  6. Compose Response es una herramienta que puede pasar indicaciones a un LLM y devolver una respuesta.

Veamos ahora cómo un agente podría manejar casos de uso relacionados con la gestión de pedidos. Por ejemplo, ¿cómo puede el agente ayudar a un usuario a obtener una actualización sobre el estado de su pedido?

  1. El usuario solicita la información más reciente de su pedido a través de un chatbot
  2. El agente “piensa” y determina la acción correcta que debe tomar
    1. El agente primero utiliza la herramienta Consultar cliente para consultar los detalles del cliente.
    2. Luego, el agente utiliza la herramienta Consultar pedidos para consultar pedidos desde una base de datos.
    3. Luego, el agente utiliza la herramienta Administrar información de seguimiento para obtener la información de envío más reciente de su socio de envío.
    4. Luego, el agente toma ambos resultados y utiliza la herramienta Redactar respuesta para generar una respuesta.
  3. La respuesta se devuelve al usuario.

En este escenario, el agente pudo tomar las herramientas que le proporcionamos y determinar el pedido y los parámetros que necesitan para crear el resultado correcto para el usuario, en este caso, toda su información de pedido y envío. Lo que es importante tener en cuenta aquí es que el usuario puede hacerle al agente cualquier pregunta sobre su pedido y el agente puede usar IA para razonar y usar las herramientas en el orden que necesite.

Como desarrollador, su función se centra más en crear las herramientas y permitir que el agente administre la orquestación.

Mantener a un humano informado

El desafío ético con los agentes autónomos es que no hay ningún ser humano involucrado cuando se trata de ejecutar las acciones. En Salesforce, estamos comprometidos con el uso ético de la IA y queremos dejarlo claro en nuestras implementaciones de este tipo de tecnología. Ciertas reglas exigen que una persona sea responsable de tomar la decisión final en asuntos con consecuencias legales o de impacto comparable, incluida la contratación laboral, la aprobación de préstamos, las admisiones educativas y las sugerencias en justicia penal. Esta insistencia en la supervisión humana, en lugar de decisiones automatizadas, tiene como objetivo identificar y reducir mejor los posibles sesgos y daños.

¿Qué significa esto para el futuro de Salesforce?

En Dreamforce este año, les dimos una idea de cómo será el futuro de Salesforce y la IA autónoma en la plataforma Einstein 1. Einstein Copilot es nuestra respuesta a un asistente conversacional de IA generativa basado en agentes que utiliza habilidades y acciones para guiar a los usuarios a través de la interacción con Salesforce. Esto introduce un paradigma de desarrollo completamente nuevo para Salesforce, uno en el que estamos creando piezas de funcionalidad más pequeñas que pueden ser orquestadas por Einstein Copilot.

¿Cómo se compara Einstein Copilot con un agente de IA?

Si bien existen varias similitudes entre Copilot y un marco de agente de código abierto, la verdadera diferencia es el acceso de Copilot a toda la plataforma de metadatos de Salesforce. No sólo eso, sino que el alcance es mucho mayor. En lugar de agentes individuales, tienes muchas habilidades , y en lugar de herramientas tienes acciones .

Por ejemplo, si desea actualizar un pedido utilizando Copilot, deberá crear una habilidad de gestión de pedidos. Con otros marcos, necesitarías crear un agente completo para la gestión de pedidos.

Cuando se trata de acciones, usted tiene el poder de la Plataforma Einstein 1 detrás de usted. Podrá utilizar Apex, Flow, las numerosas API de plataforma, SOQL y mucho más para brindarle a su habilidad la capacidad de reunir datos desde cualquier lugar. También tiene acceso directo a los datos de toda la plataforma.

Estudio Einstein Copiloto

Estas habilidades y acciones se reúnen en Einstein Copilot Studio , que le permite ensamblar flujos, indicaciones, Apex y más en colecciones de funcionalidades.

Actualmente existen tres herramientas dentro de Einstein Copilot Studio:

  • Prompt Builder le permite crear plantillas de mensajes utilizando campos de combinación de registros y datos proporcionados por Flow y Data Cloud.
  • Skills Builder le permite ensamblar acciones, como métodos invocables de Apex, flujos y llamadas de API de MuleSoft, y otorgárselas a un agente.
  • Model Builder le permite traer sus propios modelos de IA a Salesforce

Juntos, podrán crear agentes potentes en Salesforce que puedan usar su código para responder preguntas y ayudar a los usuarios.

La capa de confianza de Einstein

Una gran ventaja de Einstein Copilot es Einstein Trust Layer. Trust Layer proporciona un entorno seguro para el procesamiento de datos a través de un modelo de lenguaje grande, lo que garantiza que los datos del usuario permanezcan confidenciales al enmascarar información de identificación personal, verificar la salida en busca de contenido inapropiado y garantizar que no haya persistencia de datos fuera de Salesforce.

Trust Layer se ejecuta a través de un proceso de varios pasos para garantizar que los datos estén fundamentados y enmascarados antes de ser procesados por un proveedor de LLM externo, y proporciona una puerta de enlace segura para interactuar con dichos LLM. Una vez que se ha generado una respuesta, la verifica en busca de contenido tóxico y desenmascara los datos antes de presentárselos al usuario. Puede ver más de cerca la capa de confianza en nuestra publicación de blog Dentro de la capa de confianza de Einstein .

Resumen

La IA autónoma se hace realidad mucho más cerca a través de agentes, lo que marca el comienzo de una nueva era de tecnología en la que el razonamiento y la toma de decisiones se potencian con herramientas y memoria. Einstein Copilot de Salesforce introduce este enfoque impulsado por agentes en la plataforma, ofreciendo un asistente de IA conversacional que guía a los usuarios, aprovecha los vastos metadatos de Salesforce y garantiza la integridad de los datos a través de Einstein Trust Layer. Este cambio transformador significa no sólo una evolución en las interacciones de IA, sino también una promesa de experiencias seguras, eficientes y fluidas para los usuarios de Salesforce.

Sobre el Autor

Stephan Chandler-García es el director de contenido estratégico de Salesforce. Ha estado en el ecosistema de Salesforce durante más de 10 años como cliente, socio e ISV. Puede encontrar a Stephan en persona en un grupo comunitario Trailblazer o en una de nuestras conferencias en todo el mundo. Alternativamente, sígalo en X (Twitter) o GitHub .

Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.

Añadir a holgura Suscríbete a RSS

Seguir leyendo

La importancia de la colaboración de socios en la revolución de la IA

La importancia de la colaboración de socios en la revolución de la IA

Si ha utilizado una de las herramientas gratuitas de IA generativa disponibles, habrá visto lo innovadora que puede ser esta tecnología. Introducir indicaciones simples puede generar respuestas complejas y producir resultados complejos y sofisticados. Sin embargo, todavía se están explorando las aplicaciones comerciales de esta tecnología. Una cosa está clara: estamos en medio de la última revolución tecnológica. Al igual que la computación en la nube reformuló el panorama empresarial, el potencial de la IA + Datos + CRM cambiará el campo de juego de los negocios tal como los conocemos.

Es por eso que Salesforce está colaborando con nuestro poderoso ecosistema de socios para brindarle soluciones de IA que tengan aplicaciones comerciales claras. Con la armonía de IA + Datos + CRM, Salesforce le brinda las herramientas para utilizar el poder de la IA y la capacidad de poner a sus clientes en primer lugar.

Los socios de Salesforce comparten sus opiniones sobre la IA

Nuestros socios más influyentes están preparados para la revolución de la IA. Descubra cómo nuestro ecosistema de socios está creando soluciones empresariales específicas con la tecnología de Salesforce.

Allanando un camino confiable hacia el valor de la IA

Nuestro equipo de investigación de IA de Salesforce ha estado desarrollando grandes modelos de lenguaje (LLM) durante varios años y fue pionero en ingeniería rápida en 2018. Invertir en nuestra gente y socios es fundamental para el éxito. De hecho, Salesforce emplea a más de 1500 ingenieros de aprendizaje automático y científicos de datos en toda la empresa.

Y con Einstein , hemos creado la primera IA del mundo para CRM, que ahora impulsa más de 1 billón de predicciones cada semana en todo el conjunto de aplicaciones Salesforce Customer 360. Conla IA generativa , Einstein está haciendo que todas las empresas y empleados sean más productivos y eficientes en ventas, servicios, marketing y comercio.

Las innovaciones prosperan sobre una base de conocimiento sólido, confianza y experiencia diversa. Aquí es donde entra en juego nuestro vasto ecosistema de socios.

Adoptar un ecosistema de confianza

Salesforce comprende la importancia de tener la confianza como principio fundamental . La IA es una herramienta increíblemente poderosa con resultados potencialmente catastróficos si no se desarrolla teniendo en cuenta la responsabilidad. En Salesforce, cumplimos con las más altas prácticas de seguridad y privacidad porque nos esforzamos por proteger los datos que se nos confían.

El uso ético de la IA es de vital importancia y es una prioridad para todos nosotros en el ecosistema de socios. La confianza es una parte fundamental del diálogo y trabajamos estrechamente con socios y clientes para tomar decisiones informadas sobre cómo utilizar nuestra IA de manera responsable.

Al unirnos para resolver los desafíos emergentes, podemos garantizar que utilizamos la IA de forma segura y ética.

Innovando a través de la colaboración

Nuestro vasto ecosistema de socios contiene cientos de miles de expertos en tecnología Salesforce. Con su experiencia y conocimientos, aportan un profundo conocimiento de cómo se puede implementar y utilizar mejor Salesforce en industrias específicas.

Tenemos una larga historia de colaboración e innovación con nuestros socios, y las soluciones impulsadas por IA son la frontera más nueva que perseguimos juntos. Nuestros socios son expertos en sus campos. Al combinar eso con la tecnología de inteligencia artificial de Salesforce, podemos crear casos de uso y soluciones únicos que brindan valor de inteligencia artificial e infinitas posibilidades para nuestros clientes.

Mejore la productividad de la empresa con Einstein

Einstein le ayuda a vender más rápido, ganar más clientes y acelerar la eficiencia empresarial.

Aprovechando el poder de Einstein

Ofrecer éxito a los clientes es clave. Nuestros socios están colaborando con ingenieros y científicos de datos de Salesforce para prepararse para el futuro impulsado por la IA y crear productos listos para el mercado utilizando Einstein.

Sabemos que los clientes necesitan datos centralizados y sistemas consolidados. También quieren que se les permita utilizar la IA de una manera confiable que respete la seguridad y la privacidad de los datos. Echemos un vistazo más de cerca a estas últimas innovaciones :

  • Einstein es la solución completa para su viaje hacia la IA. Desde soluciones de ventas personalizadas que maximizan la productividad y agilizan los procesos hasta la automatización escalable del servicio al cliente que reduce los costos y mejora la eficiencia, Einstein ayuda a todos sus equipos a trabajar de manera más inteligente.
  • Al establecer nuevos estándares de la industria para la IA generativa segura, Einstein Trust Layer protege la seguridad de los datos de los clientes y cumple con las demandas de cumplimiento y gobernanza de datos. Es vital para garantizar a los clientes que pueden proteger los datos confidenciales de los mismos.

Encontrar el éxito de los socios y el valor de la IA

Desde mi perspectiva, se trata de confianza y responsabilidad de cara al futuro. Para la mayoría de nuestros clientes, este es el comienzo de su viaje hacia la IA. La IA puede transformar el funcionamiento de las empresas. Puede optimizar los procesos existentes y mejorar la eficiencia entre los equipos. Depende de todos nosotros mejorar y capacitar a nuestros empleados y clientes para que aprendan estas nuevas capacidades.

Salesforce entrevistó a otros pioneros de la IA en el World Tour de Londres para escuchar sus opiniones sobre cómo la IA generativa está cambiando la industria. En los siguientes artículos de esta serie del Día de la IA, analizamos los temas que nuestros socios más influyentes compartieron con nosotros. Explicaremos por qué la confianza, la transparencia y la seguridad de los datos son una prioridad. También profundizaremos en por qué Es esencial buscar casos de uso compatibles para satisfacer las necesidades de los clientes y cómo ser parte del ecosistema de socios ayuda a los socios a respaldar a nuestros clientes conjuntos.

¿No puedes esperar hasta entonces? Mire los videos del Día de la IA aquí .

Seguir leyendo

Archivando datos, ¡no tan rápido!

Archivando datos, ¡no tan rápido!

En el mundo actual basado en datos, las empresas generan una gran cantidad de datos, incluidos registros de clientes, historial de transacciones y más. (No me hagas empezar con los LLM).

Gestionar estos datos de manera eficiente es clave para el buen funcionamiento de sus entornos de Salesforce, la capacidad de almacenamiento, el consumo de energía y también las regulaciones de retención de datos. Ahí es donde entra en juego el archivo de datos.

Como sabrás, paso un poco de tiempo todos los días en la 'comunidad de respuestas'. Así es como (hace muchos años) entré en la comunidad Salesforce Trailblazer. Así que trato de pasar un poco de tiempo allí todos los días. Y he visto algunas preguntas recientemente sobre este asunto. Así que pensé en ampliar el intercambio de conocimientos: escribamos este artículo, donde exploramos el archivo de datos y arrojamos luz sobre algunas consideraciones esenciales.

Antes de comenzar a archivar como si no hubiera un mañana, esto es lo que debe analizar:

Elegir los registros adecuados para archivarlos
El primer paso para crear una estrategia de archivo de datos es determinar qué registros deben archivarse. No es necesario archivar todos los datos; sólo se deben considerar aquellos que ya no se utilizan activamente pero que deben conservarse para fines históricos o de cumplimiento. Para los usuarios de Salesforce, esto podría incluir contactos antiguos de clientes, oportunidades cerradas o casos obsoletos.

En la mayoría de los casos, los datos pueden simplemente eliminarse. ¡No seas acaparador! Y eliminar conduce a un menor uso de almacenamiento, menos procesamiento, menos riesgos potenciales de seguridad y gobernanza, menos consumo de energía… ¡en definitiva, menos complicaciones!

¡Menos es más!

Acceder a datos archivados
Si bien los datos archivados generalmente se almacenan fuera del entorno principal de Salesforce, es crucial considerar cómo y si estos registros serán necesarios nuevamente .

  • Piense en la frecuencia con la que su equipo necesita acceder a datos archivados y
  • si debería estar disponible fácilmente o si
  • puede permitirse un proceso de recuperación más largo. También,
  • determinar si necesita ejecutar informes sobre datos archivados para análisis históricos o
  • fines de cumplimiento.

Matando el mito: ¡En este hilo reciente se propuso utilizar un objeto personalizado! ¡No hagas esto, no tiene sentido! El uso de almacenamiento será el mismo si se trata de un objeto estándar o personalizado (si no más).

Definición de períodos de retención
Los distintos tipos de datos pueden tener distintos requisitos de conservación. Por ejemplo, es posible que sea necesario conservar los registros financieros durante un período más prolongado que las consultas de los clientes.

Comprenda los períodos de retención específicos para su industria y ubicación, y asegúrese de que su estrategia de archivo se alinee con estas regulaciones.

Cumplimiento de las regulaciones de la industria
A riesgo de repetirme: el cumplimiento de la normativa de conservación de datos es primordial. Investigue si existen regulaciones específicas aplicables a su industria y ubicación .

Por ejemplo, el Reglamento General de Protección de Datos (GDPR) de la Unión Europea impone reglas estrictas sobre la retención y la privacidad de los datos.

Cumplir con estas normativas no es sólo un requisito legal sino también una forma de generar confianza con sus clientes. Y le ahorra molestias y estrés en el futuro.

Soluciones de archivo existentes
Considere qué soluciones de archivo ya existen en su organización. Algunas empresas pueden tener un sistema de archivo dedicado que puede o no integrarse perfectamente con Salesforce, mientras que otras pueden depender de procesos manuales.

Es muy fácil distraerse con la proliferación de aplicaciones, no te dejes cegar por las cosas brillantes. Comprender su configuración actual puede ayudarle a tomar decisiones informadas sobre cómo mejorar su estrategia de archivo.

No te olvides del escenario del “Regreso”
A veces, los datos archivados no desaparecen para siempre. Piense en escenarios en los que podría necesitar resucitar registros archivados, como un contacto de cliente previamente cerrado que regresa como un cliente potencial.

Asegúrese de que su sistema de archivo permita una fácil recuperación y reintegración cuando sea necesario. ¡Descubra qué situaciones podrían ocurrir, con qué frecuencia, cuánto volumen, etc., para que pueda diseñar el proceso basándose en decisiones informadas!

En conclusión, el archivo de datos eficaz es un aspecto crucial de la gestión de instancias de Salesforce. Al considerar cuidadosamente qué registros archivar, cómo acceder a ellos, períodos de retención, regulaciones de cumplimiento, soluciones existentes y la posibilidad de que los datos "regresen", su organización puede garantizar la integridad de los datos, el cumplimiento normativo y la capacidad de aprovechar los datos históricos. para necesidades futuras. ¡También aproveche el poder de ELIMINACIÓN!

¿Cuál es tu enfoque? ¿Qué más tiene en su lista al clasificar las solicitudes de archivo de datos?

Seguir leyendo

Creación de aplicaciones impulsadas por IA con LLM y Einstein ☁️

Creación de aplicaciones impulsadas por IA con LLM y Einstein ☁️

Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .

El enlace a la publicación original, lo encontrarás al final de este artículo.

Creación de aplicaciones impulsadas por IA con LLM y Einstein | Blog de desarrolladores de Salesforce

La IA generativa es la tecnología más transformadora desde Internet y revoluciona la forma en que creamos e interactuamos con la información. Para los desarrolladores, esto plantea nuevas preguntas: desde la práctica "¿Cómo puedo crear aplicaciones impulsadas por IA con modelos de lenguaje grandes (LLM)?" Más profundamente, “¿Cómo cambiará la IA generativa la naturaleza de las aplicaciones? ” Exploramos estas dos preguntas en esta publicación de blog.

¿Cómo creo aplicaciones impulsadas por IA con LLM?

Comencemos con la primera pregunta: "¿Cómo creo aplicaciones con LLM?" y explore tres opciones que comúnmente se consideran:

  1. Entrena tu propio modelo
  2. Personaliza un modelo de código abierto
  3. Utilice modelos existentes a través de API

Entrena tu propio modelo

Entrenar su propio modelo le brinda control total sobre los datos de los que aprende su modelo. Por ejemplo, puede entrenar un modelo con datos específicos de su industria. Un modelo entrenado con datos de un dominio específico generalmente será más preciso que un modelo de propósito general para casos de uso centrados en ese dominio. Si bien entrenar su propio modelo ofrece más control y precisión, puede que no siempre sea el mejor enfoque. Aquí hay algunas cosas para considerar:

  1. Tiempo y recursos: formar su propio LLM desde cero puede llevar semanas o incluso meses. Como punto de referencia, aunque es probable que su modelo sea mucho más pequeño, el modelo GPT-3 de OpenAI tardó 1,5 millones de horas de GPU en entrenarse.
  2. Experiencia: para entrenar su modelo, también necesitará un equipo de ingenieros especializados en aprendizaje automático (ML) y procesamiento del lenguaje natural (NLP).
  3. Seguridad de los datos: el poder de los LLM hace que sea tentador crear modelos que aprendan de todos sus datos, pero esto no siempre es lo correcto desde el punto de vista de la seguridad de los datos. Puede haber tensión entre la forma en que aprenden los LLM y la forma en que se implementan las políticas de seguridad de datos en su empresa. Los LLM aprenden de grandes cantidades de datos. ¡Cuantos más datos mejor! Sin embargo, con seguridad a nivel de campo (FLS) y permisos estrictos, las políticas de seguridad de datos corporativas a menudo se basan en el principio de privilegio mínimo: los usuarios solo deben tener acceso a los datos que necesitan para realizar su trabajo específico. ¡Cuantos menos datos mejor! Por lo tanto, un modelo formado con todos los datos disponibles de los clientes y puesto a disposición de todos en su empresa puede no ser una buena idea y violar las políticas de seguridad de datos de su empresa. Sin embargo, un modelo entrenado en especificaciones de productos y resoluciones de tickets de soporte anteriores puede ayudar a los agentes a resolver tickets nuevos sin comprometer la seguridad de los datos.

Personaliza un modelo de código abierto

Personalizar un modelo de código abierto normalmente lleva menos tiempo y es menos costoso que entrenar su propio modelo desde cero. Sin embargo, aún necesita un equipo de ingenieros especializados en aprendizaje automático (ML) y procesamiento del lenguaje natural (NLP). Dependiendo del caso de uso, es posible que aún experimentes la tensión de seguridad de los datos descrita anteriormente.

Utilice modelos existentes a través de API

Utilizar modelos existentes a través de API es la forma más sencilla de crear aplicaciones con LLM. Esta es también la opción más utilizada en este momento. Sin embargo, estos modelos no se han entrenado con los datos contextuales o privados de su empresa y, por lo tanto, el resultado que producen puede ser demasiado genérico para ser útil.

En esta publicación de blog, exploramos diferentes técnicas para agregar datos contextuales o privados de la empresa a través del mensaje. Debido a que el mensaje se crea dinámicamente en nombre del usuario, solo incluye datos a los que el usuario tiene acceso, lo que aborda la tensión de seguridad de los datos descrita anteriormente. Es posible que le preocupe pasar datos privados a una API de terceros, pero existen técnicas para abordar esa preocupación y también las describimos en esta publicación de blog.

Creación de aplicaciones impulsadas por IA utilizando modelos existentes a través de API

Llamada API básica

Los principales proveedores de modelos como OpenAPI , Anthropic , Google , Hugging Face y Cohere ofrecen API para trabajar con sus modelos. En la implementación más básica, su aplicación captura un mensaje del usuario, lo pasa como parte de la llamada API y muestra el resultado generado al usuario.

Por ejemplo, así es como se vería la llamada API usando la API OpenAI:

Esta opción puede funcionar para casos de uso simples que solo requieren un resultado general basado en conocimientos generales. Por ejemplo, " Escribe un haiku sobre el invierno" o "Escribe una declaración SQL de muestra con una unión externa". Pero si necesita una respuesta que se adapte a su propio contexto o a los datos privados de su empresa, es probable que el resultado generado sea demasiado genérico para ser útil.

Por ejemplo, digamos que un usuario ingresa el siguiente mensaje:

Escriba un correo electrónico de presentación para el director ejecutivo de Acme.

El correo electrónico generado no sería personalizado ni relevante porque el modelo no sabe nada sobre su relación con Acme y los negocios que ha hecho con ellos.

Puesta a tierra del LLM

Para que la respuesta sea más relevante y contextual, el usuario puede fundamentar el LLM con información adicional. Por ejemplo, pueden ingresar el siguiente mensaje:

Usted es John Smith, representante de cuentas de Northern Trail Outfitters.
Escriba un correo electrónico de presentación a Lisa Martinez, directora ejecutiva de ACME.
Aquí hay una lista de los últimos tres pedidos que Acme realizó a Northern Trail Outfitters:
Colección Verano 2023: $375,286
Colección Primavera 2023: $402,255
Colección Invierno 2022: $357,542

Esto permite que el LLM genere un resultado mucho más relevante. Sin embargo, este enfoque plantea dos problemas:

  1. El usuario debe ingresar mucha información de conexión a tierra manualmente. Por lo tanto, la calidad del resultado depende en gran medida de la calidad de la pregunta ingresada por el usuario.
  2. Está pasando información confidencial al proveedor del modelo donde potencialmente podría persistir o usarse para entrenar aún más el modelo, lo que significa que sus datos privados podrían aparecer en la respuesta generada por el modelo de otra persona.

Construcción rápida y puesta a tierra dinámica.

Para abordar la primera limitación anterior, puede construir el mensaje mediante programación. El usuario ingresa una cantidad mínima de información o simplemente hace clic en un botón en la aplicación y luego usted crea el mensaje mediante programación agregando datos relevantes. Por ejemplo, en respuesta a un clic en el botón “Escribir correo electrónico de introducción”, podría:

  1. Llame a un servicio para obtener información sobre el usuario.
  2. Llame a un servicio para obtener información sobre el contacto.
  3. Llame a un servicio para obtener la lista de oportunidades recientes.
  4. Construya el mensaje utilizando la información obtenida de los servicios de datos anteriores.

Así es como podrían verse estos pasos de construcción rápidos en Apex:

El principal inconveniente de este enfoque es que requiere un código personalizado para cada mensaje para poder realizar la sencilla tarea de fusionar datos dinámicos en texto estático.

Plantillas de aviso

Para facilitar la construcción del mensaje, podemos usar plantillas: un patrón de desarrollo de software bien conocido que se usa comúnmente para fusionar datos dinámicos en documentos estáticos. Con una plantilla, escribe un archivo de solicitud utilizando marcadores de posición que se reemplazan dinámicamente con datos dinámicos en tiempo de ejecución.

Así es como se vería el ejemplo de Apex anterior usando un lenguaje de plantilla genérico:

Eres {{ user.Name }}, {{user.Title}} en {{ user.CompanyName }}
Escriba un correo electrónico de presentación a {{ contact.Name }}, {{contact.Title}} en {{ contact.Account.Name }}
Estas son las oportunidades de {{contact.Account.Name}}:
{{#oportunidades}}
{{Nombre}}: {{Cantidad}}

{{/oportunidades}}

Las plantillas de mensajes no solo son útiles para crear mensajes mediante programación, sino que también se pueden utilizar como base para herramientas gráficas que admiten la creación de mensajes en un entorno de arrastrar y soltar.

Estudio rápido

Por eso creamos Prompt Studio, un nuevo creador de Salesforce que facilita la creación de indicaciones. Le permite crear plantillas de mensajes en un entorno gráfico y vincular campos de marcador de posición a datos dinámicos disponibles a través de datos de páginas de registro, un flujo, una nube de datos, una llamada de Apex o una llamada API. Una vez creada, se puede utilizar una plantilla de solicitud en diferentes lugares para consultar el modelo, incluidas las páginas de registro y el código Apex.

Capa de confianza de Einstein

Prompt Builder le permite definir mensajes basados dinámicamente en un entorno gráfico. Pero, ¿cómo se envía ese mensaje de forma segura a un proveedor de LLM?

Puede enviar el mensaje directamente a la API del proveedor de LLM, pero hay una serie de preguntas a considerar con ese enfoque:

  • ¿Qué pasa con los problemas de cumplimiento y privacidad si pasa datos de información de identificación personal (PII) en el mensaje? ¿El proveedor del modelo podría conservar los datos de PII o incluso utilizarlos para entrenar aún más el modelo?
  • ¿Cómo se evitan las alucinaciones, la toxicidad y los sesgos en los resultados generados por los LLM?
  • ¿Cómo se rastrea y registra los pasos de creación de mensajes con fines de auditoría?

Si utiliza la API del proveedor de LLM directamente, tendrá que escribir un código personalizado para responder a estas preguntas. Hay muchas cosas a considerar y puede resultar difícil hacerlo bien para todos los casos de uso.

Ingrese a la capa de confianza de Einstein. Einstein Trust Layer le permite enviar solicitudes a LLM de forma confiable, abordando las inquietudes mencionadas anteriormente.

Así es como funciona:

  1. En lugar de realizar llamadas API directas, utiliza LLM Gateway para acceder al modelo. LLM Gateway admite diferentes proveedores de modelos y abstrae las diferencias entre ellos. Incluso puedes conectar tu propio modelo.
  2. Antes de enviar la solicitud al proveedor del modelo, pasa por una serie de pasos que incluyen el enmascaramiento de datos que reemplaza los datos PII con datos falsos para garantizar la privacidad y el cumplimiento de los datos.
  3. Para proteger aún más sus datos, Salesforce tiene acuerdos de retención cero con proveedores de modelos, lo que significa que los proveedores de modelos no persistirán ni entrenarán más sus modelos con datos enviados desde Salesforce.
  4. Cuando se recibe el resultado del modelo, pasa por otra serie de pasos, incluido el desenmascaramiento, la detección de toxicidad y el registro de seguimiento de auditoría. Demasking restaura los datos reales que fueron reemplazados por datos falsos por motivos de privacidad. La detección de toxicidad comprueba si hay contenido dañino u ofensivo en el resultado. El registro de seguimiento de auditoría registra todo el proceso con fines de auditoría.

De cara al futuro: creación de aplicaciones de una forma totalmente nueva

Ahora echemos un vistazo a lo que viene y abordemos la segunda pregunta planteada al principio de este artículo: ¿Cómo cambiará la IA generativa la naturaleza de las aplicaciones?

Encadenamiento rápido

La lógica involucrada en la creación de un mensaje a veces puede volverse compleja. Puede implicar múltiples llamadas a API o servicios de datos, como en el ejemplo de conexión a tierra dinámica anterior. Responder a la pregunta de un solo usuario puede incluso implicar varias llamadas al LLM. Esto se llama encadenamiento rápido. Considere el siguiente ejemplo:

Para construir el mensaje:

  1. Realizamos una primera llamada API o servicio de datos para obtener datos contextuales de la empresa
  2. Los datos que regresan de la primera llamada al servicio de datos se usan para crear un primer mensaje que usamos para consultar el LLM.
  3. La salida del LLM se utiliza como entrada para una segunda llamada de servicio de datos.
  4. Los datos que regresan de la segunda llamada al servicio de datos se utilizan para crear un segundo mensaje cuya respuesta se envía al usuario.

Las posibilidades de combinar llamadas de servicios de datos y llamadas de LLM para generar un resultado son infinitas.

Orquestación de IA

El enfoque descrito hasta ahora funciona bien, pero a medida que estos flujos de trabajo se vuelven más complejos, podemos ver la necesidad de alguna forma de orquestación. Como desarrollador, luego crearía una serie de bloques de construcción que realizan tareas granulares: recuperar datos sobre un cliente, actualizar un registro, realizar alguna lógica computacional, etc. Estos bloques de construcción se pueden orquestar o remezclar de diferentes maneras usando un herramienta de orquestación. Esto se podría hacer usando una herramienta de orquestación tradicional que le permita definir qué bloques de construcción usar, en qué orden y cuándo (con diferentes ramas "si"). Pero, ¿qué pasaría si la orquestación en sí estuviera impulsada por IA con un orquestador que pudiera razonar y elegir qué bloques de construcción usar y cómo componerlos para realizar una tarea específica? La orquestación impulsada por IA es un nuevo paradigma poderoso que tiene el potencial de revolucionar la forma en que interactuamos con los sistemas de IA y creamos aplicaciones.

El siguiente diagrama describe este nuevo paradigma de bloques de construcción orquestado por IA a un alto nivel.

En este diagrama, las acciones son los componentes básicos descritos anteriormente. Podrían ser acciones invocables de Apex, API de MuleSoft o indicaciones. Algunas acciones fundamentales están disponibles de forma predeterminada y otras serán desarrolladas por los desarrolladores. Esto también crea una oportunidad para un mercado de acciones creado por desarrolladores y socios.

El planificador es el orquestador impulsado por IA. Cuando la solicitud se pasa al tiempo de ejecución de la orquestación, el planificador elige (crea un plan para) qué acciones usar y cómo componerlas para responder mejor a la solicitud del usuario.

La orquestación de IA es un área activa de investigación en Salesforce y en la industria en su conjunto.

Resumen

El uso de modelos existentes a través de API es una forma común de crear aplicaciones impulsadas por IA con LLM. Con este enfoque, es necesario basar el modelo en datos privados o contextuales de la empresa para obtener resultados más relevantes y útiles. En lugar de pedirle al usuario que ingrese una gran cantidad de información básica manualmente, puede crear el mensaje mediante programación llamando a servicios de datos y agregando datos contextuales al mensaje. Prompt Studio es un nuevo creador de Salesforce que facilita la creación de mensajes al permitirle crear plantillas de mensajes en un entorno gráfico y vincular campos de marcador de posición a datos dinámicos. Einstein Trust Layer le permite enviar mensajes a las API de los proveedores de LLM de forma confiable, abordando problemas de privacidad, sesgos y toxicidad de los datos. La orquestación impulsada por la IA es un paradigma emergente que podría cambiar la forma en que interactuamos con los sistemas de IA y creamos aplicaciones.

Sobre el Autor

Christophe Coenraets es vicepresidente senior de Trailblazer Enablement en Salesforce. Es un desarrollador de corazón con más de 25 años de experiencia en la creación de aplicaciones empresariales, habilitando audiencias técnicas y asesorando a organizaciones de TI.

Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.

Añadir a holgura Suscríbete a RSS

Seguir leyendo