Skip to content

Etiqueta: MuleSoft

IA, datos, automatización y análisis: Nuevas tendencias que transforman las empresas en la actualidad

En nuestra serie “Engineering Energizers” Q&A, presentamos a Muralidhar Krishnaprasad (MK), presidente y director técnico de la plataforma Einstein 1, Data Cloud, MuleSoft y Tableau en Salesforce. MK ha sido una figura clave en Salesforce durante seis años, convirtiendo Data Cloud en la innovación orgánica de mayor crecimiento de la empresa. Bajo su liderazgo, Data Cloud ha logrado sustanciales […]

Logrosos resultados

El post AI, Datos, Automatización y Analítica: Future Trends Transforming Businesses Now appeared first on Blog de ingeniería de Salesforce.

Seguir leyendo

Creación de un modelo de IA predictiva en Data Cloud: Guía paso a paso ☁️

Creación de un modelo de IA predictiva en Data Cloud: Guía paso a paso ☁️

Utilice clics, no código para crear modelos de IA desde cero sin salir de Salesforce.

The post Cómo crear un modelo de IA predictiva en Data Cloud appeared first on Blog de desarrolladores de Salesforce.

Seguir leyendo

¿Qué es el diseño de API?

Explore las mejores prácticas para el diseño de API y comprenda más sobre los diferentes tipos de API, incluyendo REST API.

The post ¿Qué es el diseño de API? appeared first on Salesforce.

Seguir leyendo

¿Cómo aumentar la eficiencia de la Administración con IA y personalización?

Transforme las operaciones del sector público con la personalización basada en IA para mejorar la eficacia y la satisfacción. Siga leyendo para obtener más información

¿Cómo aumentar la eficiencia de la administración pública con IA y personalización? appeared first on Salesforce.

Cómo aumentar la eficiencia de la administración pública con IA y personalización?

Seguir leyendo

¿Qué es una estrategia API?

Descubra cómo crear una estrategia de API de éxito para alinear sus objetivos empresariales, agilizar las operaciones y mejorar la transformación digital.

The post ¿Qué es una estrategia de API? appeared first on Salesforce.

Seguir leyendo

Data Cloud y Einstein AI: Guía completa para desarrolladores ☁️

Data Cloud y Einstein AI: Guía completa para desarrolladores ☁️

Data Cloud y la inteligencia artificial de Salesforce forman una base importante que los desarrolladores ahora pueden utilizar para impulsar nuevas capacidades utilizando datos y modelos de IA que antes eran inalcanzables.

The post Data Cloud + Einstein AI: Guía de bolsillo para desarrolladores appeared first on Blog para desarrolladores de Salesforce.

Seguir leyendo

7 buenas prácticas para que la atención al cliente pase de buena a excelente

En el espectro de la IA sin contacto a las interacciones humanas de alto contacto, todo tiene su lugar en la experiencia de servicio. Matt Kravitz, vicepresidente de gestión de productos de Service Cloud en Salesforce, comparte una guía práctica para asegurarse de que el servicio de atención al cliente resuelve los problemas adecuados en las plataformas adecuadas y en el momento adecuado.

Seguir leyendo

15 innovadores de la ingeniería debaten el arte de resolver problemas

En nuestra serie “Engineering Energizers”, exploramos las habilidades de resolución de problemas de los líderes de ingeniería. En esta edición especial, nos hemos puesto al día con algunas de las mentes más brillantes del departamento de ingeniería de Salesforce en India, Argentina y EE.UU., y estamos conociendo a algunos nuevos innovadores que aparecerán en el blog de ingeniería en un futuro próximo. Únase a […]

El post En sus propias palabras: 15 Salesforce Engineering Innovators Discuss the Art of Problem Solving appeared first on Blog de ingeniería de Salesforce.

Blog de ingeniería de Salesforce

Seguir leyendo

Desarrollo de la nueva solución de gestión de API de Flex Gateway de MuleSoft

En nuestra serie de preguntas y respuestas «Engineering Energizers», exploramos las extraordinarias trayectorias de líderes en ingeniería que han realizado importantes contribuciones en sus respectivos campos. Hoy, nos sumergimos en el viaje técnico de Evangelina Martínez Ruiz Moreno, Directora Senior de Salesforce, que encabezó el desarrollo del nuevo Anypoint Flex Gateway de MuleSoft. Sigue leyendo para explorar cómo […]

El post Del concepto a la realidad: Developing MuleSoft’s New Flex Gateway API Management Solution appeared first on Blog de ingeniería de Salesforce.

Salesforce Engineering Blog

Seguir leyendo

Todo el mundo es un Einstein en el Salesforce World Tour Sídney 2024

Desde la última innovación en IA, historias de Trailblazer y anuncios de subvenciones hasta un nuevo ganador de la Sudadera con capucha dorada, aquí tiene seis momentos destacados del Salesforce World Tour Sídney 2024.

Seguir leyendo

35 citas inspiradoras sobre la inteligencia artificial

Las mejores citas sobre IA de expertos en inteligencia artificial sobre el impacto en los negocios, las ventas, la preparación de la fuerza laboral, el futuro del trabajo, la confianza, la ética y la privacidad.

The post 35 citas inspiradoras sobre inteligencia artificial appeared first on Salesforce.

Seguir leyendo

Mejore su experiencia MuleSoft con IA ☁️

Mejore su experiencia MuleSoft con IA ☁️

En el mundo de la IA, que se desarrolla rápidamente, MuleSoft está evolucionando sus capacidades de integración, gestión de API e IA.

En el mundo de la IA, MuleSoft está evolucionando sus capacidades de integración, gestión de API e IA

The post Acelere su viaje a MuleSoft con IA appeared first on Blog de Desarrolladores de Salesforce.

Seguir leyendo

Se acerca el World Tour Sydney 2024: esto es lo que puedes esperar

El futuro de los negocios llega a Sídney. Está invitado a encontrar soluciones a sus últimos retos y a escuchar cómo la IA de confianza está transformando las industrias. Regístrese ahora para inspirarse y experimentar un aprendizaje, conexión y diversión de primera clase.

Seguir leyendo

5 usos creativos de DataWeave de MuleSoft: Desencadenar la magia de la transformación ☁️

5 usos creativos de DataWeave de MuleSoft: Desencadenar la magia de la transformación ☁️

Recorre una lista de herramientas para utilizar DataWeave en diferentes escenarios, desde una aplicación de Mule con arrastrar y soltar hasta una herramienta de línea de comandos.

The post 5 Maneras de Usar el Mágico Lenguaje de Transformación de MuleSoft’s: DataWeave appeared first on Blog de desarrolladores de Salesforce.

Seguir leyendo

Creación de una especificación de API con Visual API Designer de MuleSoft ☁️

Creación de una especificación de API con Visual API Designer de MuleSoft ☁️

Diseña tu especificación en minutos usando clics, no código con el Diseñador Visual de APIs de MuleSoft.

Diseña tu especificación en minutos usando clics, no código con el Diseñador Visual de APIs de MuleSoft

The post Diseñe una especificación de API utilizando el Diseñador Visual de API de MuleSoft appeared first on Blog de Desarrolladores de Salesforce.

Seguir leyendo

Creación de experiencias ciudadanas al ritmo de Salesforce

Se necesita un amplio conjunto de funciones para ofrecer y respaldar las experiencias digitales de los ciudadanos; ¿cómo pueden los departamentos del gobierno del Reino Unido ofrecerlas a un ritmo adecuado con Salesforce?

The post Creación de experiencias ciudadanas a un ritmo acelerado con Salesforce appeared first on Blog de Salesforce en España.

Seguir leyendo

Guía completa de documentación de Salesforce (en un mundo de inteligencia artificial)

La plataforma Salesforce es muy potente. Con cada nueva versión, su org se vuelve más potente, pero también más compleja. Como le dijeron una vez a Spiderman: «un gran poder conlleva una gran responsabilidad». Entonces, ¿cómo puede asumir la responsabilidad real de mantener su organización? Con todo lo demás que tiene que hacer, documentar sus cambios es probablemente bajo en […]

El post Guía completa para la documentación de Salesforce (en un mundo de IA) appeared first on Salesforce Ben.

Seguir leyendo

Dreamforce 2023: IA que entiende metadatos y prioriza seguridad de datos

Salesforce está organizando Dreamforce, el evento de IA más grande del año. El CEO, Mark Benioff, expresa gratitud a los asistentes y destaca la importancia de sus contribuciones al éxito de la empresa.

El Evento Dreamforce

El Evento Dreamforce es una de las conferencias más grandes y relevantes del mundo en el ámbito de la tecnología, negocios y transformación digital. Cada año, miles de profesionales se reúnen para explorar las últimas innovaciones en inteligencia artificial (IA) y escuchar las ideas visionarias de conferencistas destacados.

Presentaciones de expertos en IA y conferencistas visionarios

Una de las características más destacadas del Evento Dreamforce son las presentaciones de expertos en IA y los discursos de conferencistas visionarios. Estos profesionales comparten sus conocimientos y experiencias sobre cómo la IA está transformando la forma en que hacemos negocios y cómo podemos utilizarla para impulsar la innovación y el éxito empresarial.

Enfoque en innovación, confianza y hacer el bien

El Evento Dreamforce tiene un enfoque claro en la innovación, la confianza y hacer el bien. Los asistentes tienen la oportunidad de conocer las últimas tendencias y avances tecnológicos que están revolucionando la manera en que nos conectamos con nuestros clientes y cómo maximizar su experiencia. Se enfatiza la importancia de construir relaciones de confianza y utilizar la tecnología para lograr el bienestar general.

Conexión de clientes con sus clientes de una nueva manera utilizando datos, IA, CRM y confianza

La conexión de los clientes con sus propios clientes de una nueva manera es una de las principales temáticas del Evento Dreamforce. Se explora cómo los datos, la IA y los sistemas de relaciones con los clientes (CRM) pueden ser utilizados para mejorar la experiencia del cliente y fortalecer las relaciones comerciales. Se destaca la importancia de construir una base sólida de confianza para lograr resultados positivos.

Compromiso con la sostenibilidad y desarrollo del producto Net Zero Cloud para reducir la huella de carbono

El Evento Dreamforce se compromete con la sostenibilidad y el desarrollo de soluciones que ayuden a reducir la huella de carbono. Se presenta el producto Net Zero Cloud, el cual utiliza tecnologías sostenibles para minimizar el impacto ambiental de las operaciones en la nube. Esto demuestra la responsabilidad y el compromiso de la conferencia con el medio ambiente.

Donaciones millonarias a organizaciones benéficas y escuelas públicas

El Evento Dreamforce es también un evento solidario que busca generar un impacto positivo en la comunidad. Cada año, se realizan donaciones millonarias a organizaciones benéficas y escuelas públicas para apoyar la educación, el bienestar social y el desarrollo sostenible. Esta iniciativa muestra el compromiso de la conferencia en marcar una diferencia en la sociedad.

En resumen, el Evento Dreamforce es una conferencia de renombre mundial que reúne a expertos en IA y conferencistas visionarios. Se enfoca en la innovación, la confianza y hacer el bien, y busca conectar a los clientes con sus propios clientes de una nueva manera utilizando datos, IA, CRM y confianza. Además, se compromete con la sostenibilidad a través del desarrollo del producto Net Zero Cloud y realiza donaciones millonarias a organizaciones benéficas y escuelas públicas. Este evento es una oportunidad única para aprender, inspirarse y colaborar en la creación de un futuro mejor.

Salesforce y su Compromiso con la IA

Salesforce es una de las empresas de software más grandes y exitosas del mundo, y su compromiso con la inteligencia artificial (IA) es innegable. No solo es la tercera empresa de software más grande a nivel mundial, sino que también es la segunda más grande en Japón, lo que demuestra su posición dominante en el mercado.

Lo más impresionante de Salesforce es su sólido conjunto de valores, que incluyen la sostenibilidad, igualdad, innovación, éxito del cliente y confianza. Estos valores se extienden a su enfoque en la IA, donde Salesforce se ha convertido en una plataforma confiable para empresas de clientes de todos los tamaños.

La tecnología de IA de Salesforce es excepcional, ya que comprende los metadatos y prioriza la privacidad y seguridad de los datos. Esta es una preocupación crucial para muchas empresas, y Salesforce ha trabajado arduamente para garantizar que su plataforma de IA sea confiable y segura.

Uno de los aspectos más destacados del compromiso de Salesforce con la IA es su enfoque en la productividad y el éxito del cliente, en lugar de utilizar los datos con fines de lucro. Salesforce entiende que su éxito depende del éxito de sus clientes, y utiliza la IA para mejorar la eficiencia y brindar soluciones personalizadas que satisfagan las necesidades específicas de cada cliente.

Valores de sostenibilidad, igualdad, innovación, éxito del cliente y confianza

En Salesforce, los valores son más que simplemente palabras en un papel. La empresa se esfuerza por ser sostenible en todas sus operaciones, minimizando su impacto en el medio ambiente y abogando por prácticas comerciales responsables. Salesforce también se preocupa profundamente por la igualdad y la diversidad, y se esfuerza por construir una fuerza laboral diversa e inclusiva.

La innovación es el corazón de Salesforce. La empresa siempre está buscando formas de mejorar y avanzar en su tecnología para brindar a sus clientes las mejores soluciones posibles. Su enfoque en el éxito del cliente es otro aspecto destacado de su compromiso con la IA. Salesforce se enorgullece de brindar un excelente servicio al cliente y de ayudar a sus clientes a alcanzar sus metas y objetivos comerciales.

La confianza es la piedra angular de la relación entre Salesforce y sus clientes. Salesforce se compromete a proteger los datos y la privacidad de sus clientes y trabaja constantemente para mejorar sus medidas de seguridad. Su tecnología de IA es un claro ejemplo de este compromiso, ya que comprende los metadatos y prioriza la privacidad y seguridad de los datos.

Plataforma de IA confiable para empresas de clientes

Con su sólida plataforma de IA, Salesforce se ha convertido en un líder en la industria, brindando soluciones confiables y avanzadas a empresas de todo el mundo. La plataforma de IA de Salesforce utiliza algoritmos inteligentes y análisis de datos para ayudar a las empresas a tomar decisiones más informadas y estratégicas.

La plataforma de IA de Salesforce se destaca por su capacidad para comprender metadatos y aprovechar la información para brindar perspectivas valiosas. Esto permite a las empresas aprovechar al máximo sus datos y tomar decisiones basadas en hechos para impulsar su crecimiento y éxito.

Tecnología de IA que entiende metadatos y prioriza privacidad y seguridad de datos

La tecnología de IA de Salesforce es especialmente avanzada en términos de comprender metadatos y priorizar la privacidad y seguridad de los datos. La plataforma aprovecha los metadatos para ofrecer soluciones personalizadas y relevantes a los clientes sin comprometer la privacidad o seguridad de los datos.

La privacidad y seguridad de los datos son preocupaciones cada vez mayores en un mundo cada vez más digital. Salesforce se toma este problema en serio y ha invertido mucho en garantizar que sus soluciones de IA cumplan con los más altos estándares de seguridad y protección de datos.

Enfoque en productividad y éxito del cliente, no en utilizar datos con fines de lucro

A diferencia de muchas otras empresas de tecnología, Salesforce no se enfoca en utilizar los datos con fines de lucro. En cambio, se centra en mejorar la productividad y el éxito de sus clientes. La IA de Salesforce se utiliza para automatizar tareas repetitivas, proporcionar información valiosa y ayudar a las empresas a tomar decisiones más informadas y estratégicas.

Al utilizar la IA de Salesforce, las empresas pueden liberar tiempo y recursos para centrarse en actividades más estratégicas y de valor agregado. Esto no solo mejora la productividad, sino que también impulsa el éxito comercial a largo plazo.

Conclusión

Salesforce ha demostrado su compromiso con la IA al convertirse en una plataforma confiable y segura para empresas de todo el mundo. Sus sólidos valores de sostenibilidad, igualdad, innovación, éxito del cliente y confianza respaldan su enfoque en la IA y su compromiso de proporcionar soluciones de valor a sus clientes. Con su tecnología de vanguardia, comprensión de metadatos y priorización de privacidad y seguridad de datos, Salesforce está impulsando la productividad y el éxito del cliente, sin comprometer la confidencialidad de los datos o utilizarlos con fines de lucro.

Innovación y Accesibilidad de la IA

La Inteligencia Artificial (IA) está revolucionando la forma en que realizamos tareas cotidianas y está transformando la manera en que las empresas operan. Salesforce, una de las empresas líderes en el campo de la IA, ha desarrollado diversas innovaciones y mejoras para potenciar su plataforma Einstein y hacerla más accesible para usuarios de todos los niveles, desde no programadores hasta desarrolladores de bajo código.

Una de las características destacadas de la IA en Salesforce es su motor de flujo de trabajo integrado e inteligente. Este motor es capaz de automatizar trillones de tareas, lo cual agiliza los procesos empresariales y libera tiempo para que los equipos se enfoquen en tareas de mayor valor. Con la IA, las empresas pueden optimizar sus operaciones y ser más eficientes en la entrega de productos y servicios.

Otra ventaja significativa de la IA en Salesforce es su accesibilidad para no programadores y desarrolladores de bajo código. La plataforma Einstein ha sido diseñada pensando en estos usuarios, brindando herramientas intuitivas y fáciles de usar que permiten aprovechar los beneficios de la IA sin necesidad de tener conocimientos avanzados de programación. Esto impulsa la adopción de la IA en organizaciones de diversos tamaños y sectores, democratizando su uso.

Para fomentar la innovación en la plataforma Einstein, Salesforce ha lanzado un fondo de inversión de $500 millones para apoyar a emprendedores y startups. Este fondo busca impulsar el desarrollo de soluciones basadas en la IA y promover la creación de aplicaciones avanzadas que aprovechen el potencial de esta tecnología. Con esta iniciativa, Salesforce busca fortalecer su ecosistema de socios y continuar liderando el camino en términos de innovación en IA.

La ética y la responsabilidad son valores fundamentales en el desarrollo y aplicación de la IA. Salesforce ha hecho hincapié en la importancia de seguir prácticas éticas y responsables en el uso de la tecnología. La plataforma Einstein está diseñada para proteger la privacidad de los datos y garantizar la transparencia en el procesamiento de la información. Esto es especialmente relevante en un mundo cada vez más preocupado por la privacidad y la seguridad de los datos.

Además de las características propias de la plataforma Einstein, Salesforce también ha integrado su IA con otras empresas líderes en sus respectivos campos. La colaboración con empresas como Tableau y MuleSoft ha permitido mejorar las capacidades de IA e integración de Salesforce. Estas integraciones permiten a los usuarios aprovechar las funcionalidades de la IA en conjunto con otras herramientas y servicios, potenciando su eficiencia y brindando soluciones más completas.

En resumen, Salesforce está impulsando la innovación y la accesibilidad de la IA a través de su plataforma Einstein. Con su motor de flujo de trabajo integrado e inteligente, su enfoque en la accesibilidad para no programadores y desarrolladores de bajo código, su fondo de inversión para emprendedores y startups, su énfasis en prácticas éticas y responsables, y su integración con empresas líderes en el mercado, Salesforce está liderando el camino en el campo de la IA y permitiendo a las empresas aprovechar todo el potencial de esta tecnología para impulsar su éxito.

Salesforce y Einstein Co-Pilot Studio

En la era de la inteligencia artificial (IA), las organizaciones están buscando formas de aprovechar al máximo esta tecnología para mejorar sus procesos y aumentar su eficiencia. Salesforce y Einstein Co-Pilot Studio se han convertido en una herramienta muy valiosa para personalizar y ampliar las capacidades de la IA.

Una de las principales ventajas de Salesforce y Einstein Co-Pilot Studio es su capacidad para permitir a las empresas conectar modelos propios e integrarse con modelos de socios. Esto significa que las organizaciones pueden aprovechar tanto los modelos preexistentes como los que han creado internamente para obtener resultados más precisos y personalizados.

Otra característica destacada de esta herramienta es la creación de instrucciones y habilidades para mejorar las capacidades de la IA. Los usuarios pueden desarrollar instrucciones y habilidades específicas que ayudan al sistema a comprender y realizar tareas complejas de manera más eficiente. Esto implica un enfoque en el razonamiento y la ejecución de tareas similares a como lo haría un humano.

Einstein Co-Pilot Studio facilita la implementación de la IA en organizaciones de todos los tamaños y sectores. A través de su interfaz intuitiva, las empresas pueden aprovechar al máximo los beneficios de la IA sin necesidad de invertir en recursos adicionales o conocimientos técnicos avanzados.

Algunas de las tareas que Einstein Co-Pilot Studio puede ejecutar incluyen el análisis de grandes cantidades de datos, la clasificación de información, el procesamiento de lenguaje natural y la generación de insights basados en patrones identificados. Esto permite a las organizaciones automatizar procesos, tomar decisiones más informadas y mejorar su eficiencia operativa en general.

Usar Einstein Co-Pilot Studio también significa que las empresas pueden contar con un sistema de IA personalizado y adaptable a sus necesidades y objetivos específicos. Los modelos desarrollados en la plataforma pueden ajustarse y actualizarse fácilmente a medida que se obtienen nuevos datos y se identifican nuevas tendencias y patrones.

En resumen, Salesforce y Einstein Co-Pilot Studio son una combinación poderosa para impulsar la implementación exitosa de la IA en organizaciones. Esta herramienta ofrece la posibilidad de personalizar y ampliar las capacidades de la IA, conectar modelos propios e integrarse con modelos de socios, y mejorar el razonamiento y la ejecución de tareas como lo haría un humano. Todo esto, sin la necesidad de invertir en recursos adicionales o conocimientos técnicos avanzados.

Integración de Slack en Salesforce

La integración de Slack en Salesforce ha revolucionado la forma en que los profesionales trabajan y se comunican. Con la combinación de la plataforma de colaboración en equipo líder en el mercado, Slack, y el popular sistema de gestión de relaciones con los clientes, Salesforce, los usuarios pueden aprovechar una nueva experiencia de usuario que ofrece funciones impulsadas por IA, mejorando su productividad y eficiencia.

Nueva experiencia de usuario y funciones impulsadas por IA

La integración de Slack en Salesforce introduce una nueva y emocionante experiencia de usuario, que permite a los equipos colaborar de manera más efectiva y eficiente. Con la función de inteligencia artificial de Slack, los usuarios pueden recibir sugerencias inteligentes y recomendaciones basadas en su flujo de trabajo. Esto ayuda a optimizar las tareas diarias y a tomar decisiones informadas.

Slack Lists para rastrear trabajo y Slack Sales Elevate para vendedores

Una de las características destacadas de la integración de Slack en Salesforce es la capacidad de utilizar Slack Lists para rastrear el trabajo y mantener al equipo organizado. Los usuarios pueden crear listas personalizadas para proyectos, tareas pendientes y seguimiento de hitos. Esto facilita la colaboración y el seguimiento del progreso del trabajo.

Además, los vendedores se benefician de Slack Sales Elevate, una característica diseñada específicamente para ellos. Esta función permite a los vendedores acceder a información y recursos clave directamente desde Slack, lo que les ayuda a mejorar las relaciones con los clientes y cerrar más acuerdos de manera efectiva.

Visualización y actualización de datos de Salesforce directamente en Slack

No hay necesidad de cambiar constantemente entre Salesforce y Slack para acceder a la información de los clientes. Con la integración de Slack en Salesforce, los usuarios pueden ver y actualizar los datos de Salesforce directamente desde la interfaz de Slack. Esto ahorra tiempo y reduce la posibilidad de errores al mantener la información actualizada en todo momento.

Generación de respuestas cohesivas y resúmenes de actividad perdida en Slack

Con la integración de Slack en Salesforce, los usuarios pueden generar respuestas cohesivas y personalizadas directamente desde Slack. La inteligencia artificial de Slack analiza el contexto de las conversaciones y sugiere respuestas relevantes y coherentes. Esto ayuda a los usuarios a responder de manera más rápida y precisa, mejorando la comunicación con los clientes y agilizando los procesos de ventas y servicio.

Además, Slack ofrece la función de resumen de actividad perdida, que registra y muestra una visión general de las actualizaciones y actividades que se han perdido mientras el usuario no estaba en línea. Esto es especialmente útil para mantenerse al día con los cambios y actualizaciones, incluso si se ha estado fuera del sistema por un tiempo.

Creación de plantillas específicas para ventas con IA generativa

La integración de Slack en Salesforce también incluye la capacidad de crear plantillas específicas para ventas con IA generativa. Estas plantillas están diseñadas para ayudar a los vendedores a generar propuestas y presentaciones de manera rápida y eficiente. Al aprovechar la inteligencia artificial generativa, Slack puede generar contenido personalizado y atractivo, ahorrando tiempo y esfuerzo a los equipos de ventas.

En resumen, la integración de Slack en Salesforce ha brindado a los usuarios una experiencia de usuario mejorada, impulsada por la inteligencia artificial y llena de características útiles. Desde Slack Lists hasta Slack Sales Elevate, la posibilidad de visualizar y actualizar datos de Salesforce directamente en Slack, la generación de respuestas cohesivas y la creación de plantillas específicas para ventas con IA generativa, esta integración ha transformado la forma en que los profesionales trabajan y logran resultados exitosos.

Conclusión y Próximos Eventos

La conferencia Dreamforce ha comenzado, y hay muchas sesiones y eventos emocionantes programados para los próximos días. Desde charlas inspiradoras hasta demostraciones de última tecnología, aquí hay un resumen de lo que puedes esperar en los próximos eventos tecnológicos.

Innovación, Confianza y Éxito del Cliente con IA

Uno de los temas centrales en Dreamforce este año es la innovación impulsada por la inteligencia artificial (IA). Las sesiones se centrarán en cómo las organizaciones pueden aprovechar la IA para impulsar el crecimiento y mejorar la experiencia del cliente. También habrá discusiones sobre la confianza en los datos y cómo las empresas pueden asegurarse de que sus sistemas de IA sean éticos y seguros.

Oportunidades para Aprender, Conectarse y Hacer el Bien en la Comunidad

Dreamforce no solo se trata de sesiones y exhibiciones tecnológicas, también es una oportunidad para aprender, conectarse y hacer el bien en la comunidad. Habrá actividades de voluntariado, oportunidades de networking y charlas inspiradoras sobre la importancia de devolver a la sociedad. Estas actividades brindan a los asistentes la posibilidad de ampliar sus conocimientos, establecer contactos y contribuir a causas benéficas.

TL;DR

Dreamforce es una conferencia llena de sesiones y eventos tecnológicos emocionantes. La innovación impulsada por la IA es un tema central, con un enfoque en cómo aprovecharla para la mejora del éxito del cliente. Además, hay oportunidades para aprender, conectarse y hacer el bien en la comunidad, lo que brinda a los asistentes una experiencia enriquecedora y gratificante.

Cómo aprobar el examen de certificación Salesforce Certified AI Associate

Cómo aprobar el examen de certificación Salesforce Certified AI Associate

Última actualización el 7 de septiembre de 2023 por Rakesh Gupta Como nuevo Salesforce Certified AI Associate, comparto mis experiencias de estudio contigo y quiero que seas el próximo en superarlo Así que, ¡prepárese y sumérjase! 👉 Ya que estás aquí, es posible que desees

El post Cómo aprobar el examen de certificación Salesforce Certified AI Associate appeared first on Campeón de la Automatización.

Cómo aprobar el examen de certificación Salesforce Certified AI Associate appeared first on Campeón de la Automatización

Seguir leyendo

IA para TI: los nuevos lanzamientos de IA de Dreamforce 2023

IA para TI: los nuevos lanzamientos de IA de Dreamforce 2023

Con la IA como prioridad para todos los líderes de TI, descubra cómo estos nuevos lanzamientos de IA están impulsando la productividad y la eficiencia de los equipos de TI.

Seguir leyendo

Introducción a los agentes autónomos ☁️

Introducción a los agentes autónomos ☁️

Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .

El enlace a la publicación original, lo encontrarás al final de este artículo.

Introducción a los agentes autónomos | Blog de desarrolladores de Salesforce

El panorama de la IA está cambiando a un ritmo tan rápido que las tecnologías futuristas como la IA autónoma ya están mucho más cerca de lo que piensas. Esto se debe a la forma en que los grandes modelos de lenguaje (LLM) están comenzando a incorporarse en casi todas las formas en que interactúa con las aplicaciones. Para los desarrolladores, esto supone un cambio en la forma en que abordamos la creación de aplicaciones, desde las formas en que las reunimos hasta la creación con una UX conversacional completamente nueva.

En esta publicación de blog, veremos cómo los agentes autónomos incorporan la IA a la forma en que funcionan las aplicaciones y, al mismo tiempo, nos acercan a un mundo autónomo.

¿Qué son los agentes autónomos?

En nuestro panorama tecnológico, los agentes son sistemas avanzados que aprovechan el poder de los modelos lingüísticos para razonar y tomar decisiones. Lo que los diferencia de otro bot o marco es el hecho de que los agentes pueden realizar tareas en su nombre utilizando herramientas y memoria.

Las herramientas son extensiones de las capacidades de un modelo de lenguaje, que cierran brechas en su conocimiento y le permiten interactuar con fuentes de datos externas o recursos computacionales. Con estas herramientas, un modelo de lenguaje puede obtener datos en tiempo real, ejecutar tareas y utilizar los resultados para informar sus acciones posteriores. Por ejemplo, si un modelo de lenguaje conoce información solo hasta una fecha determinada, las herramientas pueden proporcionarle información más actualizada de la web, bases de datos u otras fuentes externas.

La memoria proporciona a los agentes la capacidad de recordar interacciones pasadas, lo que puede ser esencial para la continuidad de las tareas y el aprendizaje de acciones anteriores. Esta memoria puede ser de corta duración, centrándose en interacciones recientes, o de largo plazo, recordando eventos o patrones pasados importantes que son relevantes para situaciones actuales.

Juntos, estos elementos transforman un modelo de lenguaje en un agente que no sólo puede comprender y generar texto, sino también actuar sobre esa comprensión en contextos del mundo real. Dichos agentes pueden ejecutar soluciones de forma autónoma para los usuarios, pero también pueden integrar la intervención humana, especialmente en escenarios donde existen incertidumbres o excepciones.

¿Cómo funcionan los agentes?

Se han creado muchos marcos para respaldar el avance de los agentes, siendo algunos de los más populares AutoGPT y LangChain . Generalmente, los agentes siguen un patrón similar: el marco ReAct para razonar y actuar en modelos lingüísticos .

Este marco consta de una serie de pasos:

  1. El usuario proporciona información.
  2. El agente “piensa” en la respuesta adecuada
  3. El agente determina la acción, selecciona la herramienta relevante y decide la entrada para esa herramienta.
  4. La herramienta ofrece un resultado.
  5. El proceso recorre los pasos 2 a 4 hasta que el agente determina que la tarea está completa

Este proceso es el que empieza a hacer autónomo al agente. Al confiar en el LLM para pensar en la respuesta y determinar las acciones apropiadas necesarias, actúa por sí solo para crear el resultado deseado.

Usando LangChain como ejemplo, digamos que queremos crear una aplicación que permita a un cliente gestionar sus pedidos. Primero, podríamos darle a la aplicación acceso a nuestra base de datos de pedidos, base de datos de clientes y API de socios de envío. Luego, configuraríamos una serie de herramientas a las que puede acceder la aplicación para consultar datos, actualizarlos y utilizar IA generativa para redactar una respuesta.

Este agente de gestión de pedidos dispone de seis herramientas que puede utilizar “dentro de su dominio de conocimiento”:

  1. Query Orders es una herramienta que puede consultar pedidos desde una base de datos a través de una API conectada a una base de datos PostgreSQL.
  2. Update Order es una herramienta que puede actualizar un único pedido desde una base de datos a través de una API conectada a una base de datos PostgreSQL.
  3. Manage Tracking Info es una herramienta que puede gestionar un envío a través de una API proporcionada por una empresa de envío
  4. Get Customer es una herramienta que puede consultar datos de clientes desde una API conectada a un sistema CRM
  5. Update Customer es una herramienta que puede actualizar los datos de los clientes a través de una API conectada a un sistema CRM
  6. Compose Response es una herramienta que puede pasar indicaciones a un LLM y devolver una respuesta.

Veamos ahora cómo un agente podría manejar casos de uso relacionados con la gestión de pedidos. Por ejemplo, ¿cómo puede el agente ayudar a un usuario a obtener una actualización sobre el estado de su pedido?

  1. El usuario solicita la información más reciente de su pedido a través de un chatbot
  2. El agente “piensa” y determina la acción correcta que debe tomar
    1. El agente primero utiliza la herramienta Consultar cliente para consultar los detalles del cliente.
    2. Luego, el agente utiliza la herramienta Consultar pedidos para consultar pedidos desde una base de datos.
    3. Luego, el agente utiliza la herramienta Administrar información de seguimiento para obtener la información de envío más reciente de su socio de envío.
    4. Luego, el agente toma ambos resultados y utiliza la herramienta Redactar respuesta para generar una respuesta.
  3. La respuesta se devuelve al usuario.

En este escenario, el agente pudo tomar las herramientas que le proporcionamos y determinar el pedido y los parámetros que necesitan para crear el resultado correcto para el usuario, en este caso, toda su información de pedido y envío. Lo que es importante tener en cuenta aquí es que el usuario puede hacerle al agente cualquier pregunta sobre su pedido y el agente puede usar IA para razonar y usar las herramientas en el orden que necesite.

Como desarrollador, su función se centra más en crear las herramientas y permitir que el agente administre la orquestación.

Mantener a un humano informado

El desafío ético con los agentes autónomos es que no hay ningún ser humano involucrado cuando se trata de ejecutar las acciones. En Salesforce, estamos comprometidos con el uso ético de la IA y queremos dejarlo claro en nuestras implementaciones de este tipo de tecnología. Ciertas reglas exigen que una persona sea responsable de tomar la decisión final en asuntos con consecuencias legales o de impacto comparable, incluida la contratación laboral, la aprobación de préstamos, las admisiones educativas y las sugerencias en justicia penal. Esta insistencia en la supervisión humana, en lugar de decisiones automatizadas, tiene como objetivo identificar y reducir mejor los posibles sesgos y daños.

¿Qué significa esto para el futuro de Salesforce?

En Dreamforce este año, les dimos una idea de cómo será el futuro de Salesforce y la IA autónoma en la plataforma Einstein 1. Einstein Copilot es nuestra respuesta a un asistente conversacional de IA generativa basado en agentes que utiliza habilidades y acciones para guiar a los usuarios a través de la interacción con Salesforce. Esto introduce un paradigma de desarrollo completamente nuevo para Salesforce, uno en el que estamos creando piezas de funcionalidad más pequeñas que pueden ser orquestadas por Einstein Copilot.

¿Cómo se compara Einstein Copilot con un agente de IA?

Si bien existen varias similitudes entre Copilot y un marco de agente de código abierto, la verdadera diferencia es el acceso de Copilot a toda la plataforma de metadatos de Salesforce. No sólo eso, sino que el alcance es mucho mayor. En lugar de agentes individuales, tienes muchas habilidades , y en lugar de herramientas tienes acciones .

Por ejemplo, si desea actualizar un pedido utilizando Copilot, deberá crear una habilidad de gestión de pedidos. Con otros marcos, necesitarías crear un agente completo para la gestión de pedidos.

Cuando se trata de acciones, usted tiene el poder de la Plataforma Einstein 1 detrás de usted. Podrá utilizar Apex, Flow, las numerosas API de plataforma, SOQL y mucho más para brindarle a su habilidad la capacidad de reunir datos desde cualquier lugar. También tiene acceso directo a los datos de toda la plataforma.

Estudio Einstein Copiloto

Estas habilidades y acciones se reúnen en Einstein Copilot Studio , que le permite ensamblar flujos, indicaciones, Apex y más en colecciones de funcionalidades.

Actualmente existen tres herramientas dentro de Einstein Copilot Studio:

  • Prompt Builder le permite crear plantillas de mensajes utilizando campos de combinación de registros y datos proporcionados por Flow y Data Cloud.
  • Skills Builder le permite ensamblar acciones, como métodos invocables de Apex, flujos y llamadas de API de MuleSoft, y otorgárselas a un agente.
  • Model Builder le permite traer sus propios modelos de IA a Salesforce

Juntos, podrán crear agentes potentes en Salesforce que puedan usar su código para responder preguntas y ayudar a los usuarios.

La capa de confianza de Einstein

Una gran ventaja de Einstein Copilot es Einstein Trust Layer. Trust Layer proporciona un entorno seguro para el procesamiento de datos a través de un modelo de lenguaje grande, lo que garantiza que los datos del usuario permanezcan confidenciales al enmascarar información de identificación personal, verificar la salida en busca de contenido inapropiado y garantizar que no haya persistencia de datos fuera de Salesforce.

Trust Layer se ejecuta a través de un proceso de varios pasos para garantizar que los datos estén fundamentados y enmascarados antes de ser procesados por un proveedor de LLM externo, y proporciona una puerta de enlace segura para interactuar con dichos LLM. Una vez que se ha generado una respuesta, la verifica en busca de contenido tóxico y desenmascara los datos antes de presentárselos al usuario. Puede ver más de cerca la capa de confianza en nuestra publicación de blog Dentro de la capa de confianza de Einstein .

Resumen

La IA autónoma se hace realidad mucho más cerca a través de agentes, lo que marca el comienzo de una nueva era de tecnología en la que el razonamiento y la toma de decisiones se potencian con herramientas y memoria. Einstein Copilot de Salesforce introduce este enfoque impulsado por agentes en la plataforma, ofreciendo un asistente de IA conversacional que guía a los usuarios, aprovecha los vastos metadatos de Salesforce y garantiza la integridad de los datos a través de Einstein Trust Layer. Este cambio transformador significa no sólo una evolución en las interacciones de IA, sino también una promesa de experiencias seguras, eficientes y fluidas para los usuarios de Salesforce.

Sobre el Autor

Stephan Chandler-García es el director de contenido estratégico de Salesforce. Ha estado en el ecosistema de Salesforce durante más de 10 años como cliente, socio e ISV. Puede encontrar a Stephan en persona en un grupo comunitario Trailblazer o en una de nuestras conferencias en todo el mundo. Alternativamente, sígalo en X (Twitter) o GitHub .

Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.

Añadir a holgura Suscríbete a RSS

Seguir leyendo

Habilitación de MFA en MuleSoft para canalizaciones de CI/CD mediante acciones de GitHub ☁️

Habilitación de MFA en MuleSoft para canalizaciones de CI/CD mediante acciones de GitHub ☁️

Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .

El enlace a la publicación original, lo encontrarás al final de este artículo.

Habilitación de MFA en MuleSoft para canalizaciones de CI/CD mediante acciones de GitHub | Blog de desarrolladores de Salesforce

La mayoría de las cuentas empresariales de Anypoint Platform requieren que utilice mecanismos de autenticación multifactor (MFA) para mayor seguridad. Esto significa que, además de su nombre de usuario y contraseña habituales, necesitará un paso adicional para autenticarse (por ejemplo, una aplicación de autenticación en su teléfono).

Cuando utiliza canalizaciones de CI/CD para sus aplicaciones Mule y MFA está habilitado en su cuenta, la configuración para autenticarse usando el complemento Mule Maven será diferente que si solo estuviera usando su nombre de usuario y contraseña. Hay más pasos que debe seguir desde su cuenta de Anypoint Platform para habilitar sus canales de CI/CD con este método de autenticación.

En esta publicación, aprenderá cómo configurar una canalización de GitHub Actions para que funcione con su cuenta habilitada para MFA desde Anypoint Platform.

Requisitos previos

Crear una aplicación conectada

Dado que usar el nombre de usuario y la contraseña de su plataforma Anypoint no es suficiente para autenticarse en el proceso, debe crear una aplicación conectada para usar sus credenciales (ID/Secreto). Para crearlo, vaya a su cuenta de Anypoint Platform y navegue hasta Gestión de acceso > Aplicaciones conectadas > Crear aplicación .

Asigne un nombre a su aplicación para identificarla de otras que pueda crear. Por ejemplo, github-actions . Seleccione el tipo La aplicación actúa por sí sola y haga clic en el botón Agregar ámbitos .

Seleccione los siguientes 10 ámbitos.

  • Desarrollador del centro de diseño
  • Ver entorno
  • Ver organización
  • Perfil
  • Administrador de organización de CloudHub
  • Crear aplicaciones
  • Eliminar aplicaciones
  • Descargar aplicaciones
  • Leer aplicaciones
  • Leer servidores

Haga clic en Siguiente . Seleccione su grupo empresarial y haga clic en Siguiente . Seleccione su entorno (por ejemplo, Sandbox) y haga clic en Siguiente . Revise que los alcances sean correctos y haga clic en Agregar alcances . Haga clic en Guardar .

Una vez creada la aplicación, asegúrese de copiar tanto el ID como el Secreto . Los utilizará en la configuración de la canalización como método de autenticación.

Configura tus secretos de GitHub Actions

Vaya a su repositorio de GitHub. Haga clic en la pestaña Configuración > Secretos y variables > Acciones > Nuevo secreto del repositorio . En el campo de nombre, agregue CONNECTED_APP_CLIENT_ID . En el campo secreto, agregue la identificación real que acaba de copiar en el paso anterior. Repita este paso para crear otro secreto con el secreto real que copió en el paso anterior. Utilice el nombre CONNECTED_APP_CLIENT_SECRET .

Crear una canalización de CI/CD

De vuelta en el código de su aplicación Mule, cree una carpeta .github en el nivel raíz. Dentro de esta carpeta, cree otra carpeta llamada workflows . Dentro de esta carpeta, cree un archivo build.yml con el siguiente contenido: mule-mfa-cicd-build.yml . Tenga en cuenta que la sucursal main se utiliza en la línea 5. Si su sucursal tiene un nombre diferente, asegúrese de actualizar esta configuración.

En este archivo, describimos los pasos para generar el archivo JAR de nuestra aplicación Mule e implementarlo en nuestra cuenta de Anypoint Platform usando GitHub Actions. Observe que estamos usando los secretos creados previamente en el último paso para pasarlos a nuestro proyecto a través de Maven. Aquí declaramos dos variables de entorno Java ( client.id y client.secret ) para copiar las credenciales de nuestra aplicación de los secretos de GitHub para que el archivo pom.xml pueda usarse más adelante.

Modifica tu configuración de Maven

En su proyecto Mule, abra su archivo pom.xml. Localice el complemento org.mule.tools.maven en project/build/plugins . Agregue la siguiente configuración a este complemento.

<dx-code-block title language="xml" code-block=" org.mule.tools.maven mule-maven-plugin ${mule.maven.plugin.version} true https://anypoint.mulesoft.com 4.4.0 mulesoft-mfa-cicd Sandbox MICRO us-east-2 1 true ${client.id} ${client.secret} client_credentials
«>

Vuelva a verificar estas configuraciones en caso de que necesite actualizarlas para que coincidan con su caso de uso. Por ejemplo, muleVersion , applicationName , environment o region . Usaremos los campos connectedAppClientId y connectedAppClientSecret para pasar las variables Java que declaramos anteriormente en la configuración de Maven.

Es importante que no codifique las credenciales de la aplicación conectada en este archivo por razones de seguridad. Es por eso que mantenemos los valores como secretos de GitHub. Recuerda que puedes acceder a nuestro repositorio de ejemplo si necesitas comparar tu código con el nuestro.

ejecutar la tubería

Una vez que todas sus configuraciones estén listas, confirme y envíe sus cambios al repositorio remoto. Esto activará la canalización en GitHub. Puede ver el proceso haciendo clic en la pestaña Acciones de su repositorio de GitHub.

Una vez completado el proceso, su aplicación Mule se implementará en Runtime Manager. Tenga en cuenta que el archivo JAR contendrá el hash de confirmación en su nombre.

Conclusión

Habilitar canalizaciones de CI/CD es importante para automatizar tareas repetitivas. En lugar de implementar manualmente una aplicación Mule cada vez que hay un cambio en el código, podemos crear canalizaciones para que realicen estas tareas por nosotros. Este fue un ejemplo simple que utiliza solo una sucursal y un entorno, pero puede conectar otras sucursales a otros entornos en Anypoint Platform. Por ejemplo, dev , qa , prod , etc.

En esta publicación, aprendimos cómo implementar automáticamente una aplicación Mule en CloudHub cuando usamos la autenticación multifactor en nuestra cuenta de Anypoint Platform porque la mayoría de las cuentas empresariales tienen esta configuración habilitada. Sin embargo, cuando solo usa una cuenta de prueba gratuita, no necesita crear una aplicación conectada si no usa MFA en su cuenta. Puede utilizar su nombre de usuario y contraseña de Anypoint Platform para iniciar sesión.

Hay muchas cosas que puede automatizar al utilizar canalizaciones de CI/CD para sus aplicaciones Mule. Puedes ejecutar pruebas automatizadas antes de implementar tu aplicación Mule, por ejemplo. ¿Se te ocurren otras tareas repetitivas que puedas automatizar en tus canalizaciones?

Nota: Las versiones iniciales de la canalización se basan en el siguiente repositorio creado por Archana Patel: arch-jn/github-actions-mule-cicd-demo .

Recursos adicionales

Sobre el Autor

Alex Martínez formó parte de la comunidad de MuleSoft antes de unirse a MuleSoft como desarrollador defensor. Fundó ProstDev para ayudar a otros profesionales a aprender más sobre la creación de contenido. En su tiempo libre, encontrarás a Alex jugando juegos de Nintendo o Playstation y escribiendo reseñas sobre ellos. Siga a Alex en LinkedIn o en la comunidad Trailblazer .

Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.

Añadir a holgura Suscríbete a RSS

Seguir leyendo

Creación de aplicaciones impulsadas por IA con LLM y Einstein ☁️

Creación de aplicaciones impulsadas por IA con LLM y Einstein ☁️

Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .

El enlace a la publicación original, lo encontrarás al final de este artículo.

Creación de aplicaciones impulsadas por IA con LLM y Einstein | Blog de desarrolladores de Salesforce

La IA generativa es la tecnología más transformadora desde Internet y revoluciona la forma en que creamos e interactuamos con la información. Para los desarrolladores, esto plantea nuevas preguntas: desde la práctica "¿Cómo puedo crear aplicaciones impulsadas por IA con modelos de lenguaje grandes (LLM)?" Más profundamente, “¿Cómo cambiará la IA generativa la naturaleza de las aplicaciones? ” Exploramos estas dos preguntas en esta publicación de blog.

¿Cómo creo aplicaciones impulsadas por IA con LLM?

Comencemos con la primera pregunta: "¿Cómo creo aplicaciones con LLM?" y explore tres opciones que comúnmente se consideran:

  1. Entrena tu propio modelo
  2. Personaliza un modelo de código abierto
  3. Utilice modelos existentes a través de API

Entrena tu propio modelo

Entrenar su propio modelo le brinda control total sobre los datos de los que aprende su modelo. Por ejemplo, puede entrenar un modelo con datos específicos de su industria. Un modelo entrenado con datos de un dominio específico generalmente será más preciso que un modelo de propósito general para casos de uso centrados en ese dominio. Si bien entrenar su propio modelo ofrece más control y precisión, puede que no siempre sea el mejor enfoque. Aquí hay algunas cosas para considerar:

  1. Tiempo y recursos: formar su propio LLM desde cero puede llevar semanas o incluso meses. Como punto de referencia, aunque es probable que su modelo sea mucho más pequeño, el modelo GPT-3 de OpenAI tardó 1,5 millones de horas de GPU en entrenarse.
  2. Experiencia: para entrenar su modelo, también necesitará un equipo de ingenieros especializados en aprendizaje automático (ML) y procesamiento del lenguaje natural (NLP).
  3. Seguridad de los datos: el poder de los LLM hace que sea tentador crear modelos que aprendan de todos sus datos, pero esto no siempre es lo correcto desde el punto de vista de la seguridad de los datos. Puede haber tensión entre la forma en que aprenden los LLM y la forma en que se implementan las políticas de seguridad de datos en su empresa. Los LLM aprenden de grandes cantidades de datos. ¡Cuantos más datos mejor! Sin embargo, con seguridad a nivel de campo (FLS) y permisos estrictos, las políticas de seguridad de datos corporativas a menudo se basan en el principio de privilegio mínimo: los usuarios solo deben tener acceso a los datos que necesitan para realizar su trabajo específico. ¡Cuantos menos datos mejor! Por lo tanto, un modelo formado con todos los datos disponibles de los clientes y puesto a disposición de todos en su empresa puede no ser una buena idea y violar las políticas de seguridad de datos de su empresa. Sin embargo, un modelo entrenado en especificaciones de productos y resoluciones de tickets de soporte anteriores puede ayudar a los agentes a resolver tickets nuevos sin comprometer la seguridad de los datos.

Personaliza un modelo de código abierto

Personalizar un modelo de código abierto normalmente lleva menos tiempo y es menos costoso que entrenar su propio modelo desde cero. Sin embargo, aún necesita un equipo de ingenieros especializados en aprendizaje automático (ML) y procesamiento del lenguaje natural (NLP). Dependiendo del caso de uso, es posible que aún experimentes la tensión de seguridad de los datos descrita anteriormente.

Utilice modelos existentes a través de API

Utilizar modelos existentes a través de API es la forma más sencilla de crear aplicaciones con LLM. Esta es también la opción más utilizada en este momento. Sin embargo, estos modelos no se han entrenado con los datos contextuales o privados de su empresa y, por lo tanto, el resultado que producen puede ser demasiado genérico para ser útil.

En esta publicación de blog, exploramos diferentes técnicas para agregar datos contextuales o privados de la empresa a través del mensaje. Debido a que el mensaje se crea dinámicamente en nombre del usuario, solo incluye datos a los que el usuario tiene acceso, lo que aborda la tensión de seguridad de los datos descrita anteriormente. Es posible que le preocupe pasar datos privados a una API de terceros, pero existen técnicas para abordar esa preocupación y también las describimos en esta publicación de blog.

Creación de aplicaciones impulsadas por IA utilizando modelos existentes a través de API

Llamada API básica

Los principales proveedores de modelos como OpenAPI , Anthropic , Google , Hugging Face y Cohere ofrecen API para trabajar con sus modelos. En la implementación más básica, su aplicación captura un mensaje del usuario, lo pasa como parte de la llamada API y muestra el resultado generado al usuario.

Por ejemplo, así es como se vería la llamada API usando la API OpenAI:

Esta opción puede funcionar para casos de uso simples que solo requieren un resultado general basado en conocimientos generales. Por ejemplo, " Escribe un haiku sobre el invierno" o "Escribe una declaración SQL de muestra con una unión externa". Pero si necesita una respuesta que se adapte a su propio contexto o a los datos privados de su empresa, es probable que el resultado generado sea demasiado genérico para ser útil.

Por ejemplo, digamos que un usuario ingresa el siguiente mensaje:

Escriba un correo electrónico de presentación para el director ejecutivo de Acme.

El correo electrónico generado no sería personalizado ni relevante porque el modelo no sabe nada sobre su relación con Acme y los negocios que ha hecho con ellos.

Puesta a tierra del LLM

Para que la respuesta sea más relevante y contextual, el usuario puede fundamentar el LLM con información adicional. Por ejemplo, pueden ingresar el siguiente mensaje:

Usted es John Smith, representante de cuentas de Northern Trail Outfitters.
Escriba un correo electrónico de presentación a Lisa Martinez, directora ejecutiva de ACME.
Aquí hay una lista de los últimos tres pedidos que Acme realizó a Northern Trail Outfitters:
Colección Verano 2023: $375,286
Colección Primavera 2023: $402,255
Colección Invierno 2022: $357,542

Esto permite que el LLM genere un resultado mucho más relevante. Sin embargo, este enfoque plantea dos problemas:

  1. El usuario debe ingresar mucha información de conexión a tierra manualmente. Por lo tanto, la calidad del resultado depende en gran medida de la calidad de la pregunta ingresada por el usuario.
  2. Está pasando información confidencial al proveedor del modelo donde potencialmente podría persistir o usarse para entrenar aún más el modelo, lo que significa que sus datos privados podrían aparecer en la respuesta generada por el modelo de otra persona.

Construcción rápida y puesta a tierra dinámica.

Para abordar la primera limitación anterior, puede construir el mensaje mediante programación. El usuario ingresa una cantidad mínima de información o simplemente hace clic en un botón en la aplicación y luego usted crea el mensaje mediante programación agregando datos relevantes. Por ejemplo, en respuesta a un clic en el botón “Escribir correo electrónico de introducción”, podría:

  1. Llame a un servicio para obtener información sobre el usuario.
  2. Llame a un servicio para obtener información sobre el contacto.
  3. Llame a un servicio para obtener la lista de oportunidades recientes.
  4. Construya el mensaje utilizando la información obtenida de los servicios de datos anteriores.

Así es como podrían verse estos pasos de construcción rápidos en Apex:

El principal inconveniente de este enfoque es que requiere un código personalizado para cada mensaje para poder realizar la sencilla tarea de fusionar datos dinámicos en texto estático.

Plantillas de aviso

Para facilitar la construcción del mensaje, podemos usar plantillas: un patrón de desarrollo de software bien conocido que se usa comúnmente para fusionar datos dinámicos en documentos estáticos. Con una plantilla, escribe un archivo de solicitud utilizando marcadores de posición que se reemplazan dinámicamente con datos dinámicos en tiempo de ejecución.

Así es como se vería el ejemplo de Apex anterior usando un lenguaje de plantilla genérico:

Eres {{ user.Name }}, {{user.Title}} en {{ user.CompanyName }}
Escriba un correo electrónico de presentación a {{ contact.Name }}, {{contact.Title}} en {{ contact.Account.Name }}
Estas son las oportunidades de {{contact.Account.Name}}:
{{#oportunidades}}
{{Nombre}}: {{Cantidad}}

{{/oportunidades}}

Las plantillas de mensajes no solo son útiles para crear mensajes mediante programación, sino que también se pueden utilizar como base para herramientas gráficas que admiten la creación de mensajes en un entorno de arrastrar y soltar.

Estudio rápido

Por eso creamos Prompt Studio, un nuevo creador de Salesforce que facilita la creación de indicaciones. Le permite crear plantillas de mensajes en un entorno gráfico y vincular campos de marcador de posición a datos dinámicos disponibles a través de datos de páginas de registro, un flujo, una nube de datos, una llamada de Apex o una llamada API. Una vez creada, se puede utilizar una plantilla de solicitud en diferentes lugares para consultar el modelo, incluidas las páginas de registro y el código Apex.

Capa de confianza de Einstein

Prompt Builder le permite definir mensajes basados dinámicamente en un entorno gráfico. Pero, ¿cómo se envía ese mensaje de forma segura a un proveedor de LLM?

Puede enviar el mensaje directamente a la API del proveedor de LLM, pero hay una serie de preguntas a considerar con ese enfoque:

  • ¿Qué pasa con los problemas de cumplimiento y privacidad si pasa datos de información de identificación personal (PII) en el mensaje? ¿El proveedor del modelo podría conservar los datos de PII o incluso utilizarlos para entrenar aún más el modelo?
  • ¿Cómo se evitan las alucinaciones, la toxicidad y los sesgos en los resultados generados por los LLM?
  • ¿Cómo se rastrea y registra los pasos de creación de mensajes con fines de auditoría?

Si utiliza la API del proveedor de LLM directamente, tendrá que escribir un código personalizado para responder a estas preguntas. Hay muchas cosas a considerar y puede resultar difícil hacerlo bien para todos los casos de uso.

Ingrese a la capa de confianza de Einstein. Einstein Trust Layer le permite enviar solicitudes a LLM de forma confiable, abordando las inquietudes mencionadas anteriormente.

Así es como funciona:

  1. En lugar de realizar llamadas API directas, utiliza LLM Gateway para acceder al modelo. LLM Gateway admite diferentes proveedores de modelos y abstrae las diferencias entre ellos. Incluso puedes conectar tu propio modelo.
  2. Antes de enviar la solicitud al proveedor del modelo, pasa por una serie de pasos que incluyen el enmascaramiento de datos que reemplaza los datos PII con datos falsos para garantizar la privacidad y el cumplimiento de los datos.
  3. Para proteger aún más sus datos, Salesforce tiene acuerdos de retención cero con proveedores de modelos, lo que significa que los proveedores de modelos no persistirán ni entrenarán más sus modelos con datos enviados desde Salesforce.
  4. Cuando se recibe el resultado del modelo, pasa por otra serie de pasos, incluido el desenmascaramiento, la detección de toxicidad y el registro de seguimiento de auditoría. Demasking restaura los datos reales que fueron reemplazados por datos falsos por motivos de privacidad. La detección de toxicidad comprueba si hay contenido dañino u ofensivo en el resultado. El registro de seguimiento de auditoría registra todo el proceso con fines de auditoría.

De cara al futuro: creación de aplicaciones de una forma totalmente nueva

Ahora echemos un vistazo a lo que viene y abordemos la segunda pregunta planteada al principio de este artículo: ¿Cómo cambiará la IA generativa la naturaleza de las aplicaciones?

Encadenamiento rápido

La lógica involucrada en la creación de un mensaje a veces puede volverse compleja. Puede implicar múltiples llamadas a API o servicios de datos, como en el ejemplo de conexión a tierra dinámica anterior. Responder a la pregunta de un solo usuario puede incluso implicar varias llamadas al LLM. Esto se llama encadenamiento rápido. Considere el siguiente ejemplo:

Para construir el mensaje:

  1. Realizamos una primera llamada API o servicio de datos para obtener datos contextuales de la empresa
  2. Los datos que regresan de la primera llamada al servicio de datos se usan para crear un primer mensaje que usamos para consultar el LLM.
  3. La salida del LLM se utiliza como entrada para una segunda llamada de servicio de datos.
  4. Los datos que regresan de la segunda llamada al servicio de datos se utilizan para crear un segundo mensaje cuya respuesta se envía al usuario.

Las posibilidades de combinar llamadas de servicios de datos y llamadas de LLM para generar un resultado son infinitas.

Orquestación de IA

El enfoque descrito hasta ahora funciona bien, pero a medida que estos flujos de trabajo se vuelven más complejos, podemos ver la necesidad de alguna forma de orquestación. Como desarrollador, luego crearía una serie de bloques de construcción que realizan tareas granulares: recuperar datos sobre un cliente, actualizar un registro, realizar alguna lógica computacional, etc. Estos bloques de construcción se pueden orquestar o remezclar de diferentes maneras usando un herramienta de orquestación. Esto se podría hacer usando una herramienta de orquestación tradicional que le permita definir qué bloques de construcción usar, en qué orden y cuándo (con diferentes ramas "si"). Pero, ¿qué pasaría si la orquestación en sí estuviera impulsada por IA con un orquestador que pudiera razonar y elegir qué bloques de construcción usar y cómo componerlos para realizar una tarea específica? La orquestación impulsada por IA es un nuevo paradigma poderoso que tiene el potencial de revolucionar la forma en que interactuamos con los sistemas de IA y creamos aplicaciones.

El siguiente diagrama describe este nuevo paradigma de bloques de construcción orquestado por IA a un alto nivel.

En este diagrama, las acciones son los componentes básicos descritos anteriormente. Podrían ser acciones invocables de Apex, API de MuleSoft o indicaciones. Algunas acciones fundamentales están disponibles de forma predeterminada y otras serán desarrolladas por los desarrolladores. Esto también crea una oportunidad para un mercado de acciones creado por desarrolladores y socios.

El planificador es el orquestador impulsado por IA. Cuando la solicitud se pasa al tiempo de ejecución de la orquestación, el planificador elige (crea un plan para) qué acciones usar y cómo componerlas para responder mejor a la solicitud del usuario.

La orquestación de IA es un área activa de investigación en Salesforce y en la industria en su conjunto.

Resumen

El uso de modelos existentes a través de API es una forma común de crear aplicaciones impulsadas por IA con LLM. Con este enfoque, es necesario basar el modelo en datos privados o contextuales de la empresa para obtener resultados más relevantes y útiles. En lugar de pedirle al usuario que ingrese una gran cantidad de información básica manualmente, puede crear el mensaje mediante programación llamando a servicios de datos y agregando datos contextuales al mensaje. Prompt Studio es un nuevo creador de Salesforce que facilita la creación de mensajes al permitirle crear plantillas de mensajes en un entorno gráfico y vincular campos de marcador de posición a datos dinámicos. Einstein Trust Layer le permite enviar mensajes a las API de los proveedores de LLM de forma confiable, abordando problemas de privacidad, sesgos y toxicidad de los datos. La orquestación impulsada por la IA es un paradigma emergente que podría cambiar la forma en que interactuamos con los sistemas de IA y creamos aplicaciones.

Sobre el Autor

Christophe Coenraets es vicepresidente senior de Trailblazer Enablement en Salesforce. Es un desarrollador de corazón con más de 25 años de experiencia en la creación de aplicaciones empresariales, habilitando audiencias técnicas y asesorando a organizaciones de TI.

Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.

Añadir a holgura Suscríbete a RSS

Seguir leyendo