En nuestra serie de preguntas y respuestas «Engineering Energizers», exploramos las extraordinarias trayectorias de líderes en ingeniería que han realizado importantes contribuciones en sus respectivos campos. Hoy, nos sumergimos en el viaje técnico de Evangelina Martínez Ruiz Moreno, Directora Senior de Salesforce, que encabezó el desarrollo del nuevo Anypoint Flex Gateway de MuleSoft. Sigue leyendo para explorar cómo […]
Desde la última innovación en IA, historias de Trailblazer y anuncios de subvenciones hasta un nuevo ganador de la Sudadera con capucha dorada, aquí tiene seis momentos destacados del Salesforce World Tour Sídney 2024.
Las mejores citas sobre IA de expertos en inteligencia artificial sobre el impacto en los negocios, las ventas, la preparación de la fuerza laboral, el futuro del trabajo, la confianza, la ética y la privacidad.
The post 35 citas inspiradoras sobre inteligencia artificial appeared first on Salesforce.
El futuro de los negocios llega a Sídney. Está invitado a encontrar soluciones a sus últimos retos y a escuchar cómo la IA de confianza está transformando las industrias. Regístrese ahora para inspirarse y experimentar un aprendizaje, conexión y diversión de primera clase.
Recorre una lista de herramientas para utilizar DataWeave en diferentes escenarios, desde una aplicación de Mule con arrastrar y soltar hasta una herramienta de línea de comandos.
Se necesita un amplio conjunto de funciones para ofrecer y respaldar las experiencias digitales de los ciudadanos; ¿cómo pueden los departamentos del gobierno del Reino Unido ofrecerlas a un ritmo adecuado con Salesforce?
The post Creación de experiencias ciudadanas a un ritmo acelerado con Salesforce appeared first on Blog de Salesforce en España.
La plataforma Salesforce es muy potente. Con cada nueva versión, su org se vuelve más potente, pero también más compleja. Como le dijeron una vez a Spiderman: «un gran poder conlleva una gran responsabilidad». Entonces, ¿cómo puede asumir la responsabilidad real de mantener su organización? Con todo lo demás que tiene que hacer, documentar sus cambios es probablemente bajo en […]
El post Guía completa para la documentación de Salesforce (en un mundo de IA) appeared first on Salesforce Ben.
Salesforce está organizando Dreamforce, el evento de IA más grande del año. El CEO, Mark Benioff, expresa gratitud a los asistentes y destaca la importancia de sus contribuciones al éxito de la empresa.
El Evento Dreamforce
El Evento Dreamforce es una de las conferencias más grandes y relevantes del mundo en el ámbito de la tecnología, negocios y transformación digital. Cada año, miles de profesionales se reúnen para explorar las últimas innovaciones en inteligencia artificial (IA) y escuchar las ideas visionarias de conferencistas destacados.
Presentaciones de expertos en IA y conferencistas visionarios
Una de las características más destacadas del Evento Dreamforce son las presentaciones de expertos en IA y los discursos de conferencistas visionarios. Estos profesionales comparten sus conocimientos y experiencias sobre cómo la IA está transformando la forma en que hacemos negocios y cómo podemos utilizarla para impulsar la innovación y el éxito empresarial.
Enfoque en innovación, confianza y hacer el bien
El Evento Dreamforce tiene un enfoque claro en la innovación, la confianza y hacer el bien. Los asistentes tienen la oportunidad de conocer las últimas tendencias y avances tecnológicos que están revolucionando la manera en que nos conectamos con nuestros clientes y cómo maximizar su experiencia. Se enfatiza la importancia de construir relaciones de confianza y utilizar la tecnología para lograr el bienestar general.
Conexión de clientes con sus clientes de una nueva manera utilizando datos, IA, CRM y confianza
La conexión de los clientes con sus propios clientes de una nueva manera es una de las principales temáticas del Evento Dreamforce. Se explora cómo los datos, la IA y los sistemas de relaciones con los clientes (CRM) pueden ser utilizados para mejorar la experiencia del cliente y fortalecer las relaciones comerciales. Se destaca la importancia de construir una base sólida de confianza para lograr resultados positivos.
Compromiso con la sostenibilidad y desarrollo del producto Net Zero Cloud para reducir la huella de carbono
El Evento Dreamforce se compromete con la sostenibilidad y el desarrollo de soluciones que ayuden a reducir la huella de carbono. Se presenta el producto Net Zero Cloud, el cual utiliza tecnologías sostenibles para minimizar el impacto ambiental de las operaciones en la nube. Esto demuestra la responsabilidad y el compromiso de la conferencia con el medio ambiente.
Donaciones millonarias a organizaciones benéficas y escuelas públicas
El Evento Dreamforce es también un evento solidario que busca generar un impacto positivo en la comunidad. Cada año, se realizan donaciones millonarias a organizaciones benéficas y escuelas públicas para apoyar la educación, el bienestar social y el desarrollo sostenible. Esta iniciativa muestra el compromiso de la conferencia en marcar una diferencia en la sociedad.
En resumen, el Evento Dreamforce es una conferencia de renombre mundial que reúne a expertos en IA y conferencistas visionarios. Se enfoca en la innovación, la confianza y hacer el bien, y busca conectar a los clientes con sus propios clientes de una nueva manera utilizando datos, IA, CRM y confianza. Además, se compromete con la sostenibilidad a través del desarrollo del producto Net Zero Cloud y realiza donaciones millonarias a organizaciones benéficas y escuelas públicas. Este evento es una oportunidad única para aprender, inspirarse y colaborar en la creación de un futuro mejor.
Salesforce y su Compromiso con la IA
Salesforce es una de las empresas de software más grandes y exitosas del mundo, y su compromiso con la inteligencia artificial (IA) es innegable. No solo es la tercera empresa de software más grande a nivel mundial, sino que también es la segunda más grande en Japón, lo que demuestra su posición dominante en el mercado.
Lo más impresionante de Salesforce es su sólido conjunto de valores, que incluyen la sostenibilidad, igualdad, innovación, éxito del cliente y confianza. Estos valores se extienden a su enfoque en la IA, donde Salesforce se ha convertido en una plataforma confiable para empresas de clientes de todos los tamaños.
La tecnología de IA de Salesforce es excepcional, ya que comprende los metadatos y prioriza la privacidad y seguridad de los datos. Esta es una preocupación crucial para muchas empresas, y Salesforce ha trabajado arduamente para garantizar que su plataforma de IA sea confiable y segura.
Uno de los aspectos más destacados del compromiso de Salesforce con la IA es su enfoque en la productividad y el éxito del cliente, en lugar de utilizar los datos con fines de lucro. Salesforce entiende que su éxito depende del éxito de sus clientes, y utiliza la IA para mejorar la eficiencia y brindar soluciones personalizadas que satisfagan las necesidades específicas de cada cliente.
Valores de sostenibilidad, igualdad, innovación, éxito del cliente y confianza
En Salesforce, los valores son más que simplemente palabras en un papel. La empresa se esfuerza por ser sostenible en todas sus operaciones, minimizando su impacto en el medio ambiente y abogando por prácticas comerciales responsables. Salesforce también se preocupa profundamente por la igualdad y la diversidad, y se esfuerza por construir una fuerza laboral diversa e inclusiva.
La innovación es el corazón de Salesforce. La empresa siempre está buscando formas de mejorar y avanzar en su tecnología para brindar a sus clientes las mejores soluciones posibles. Su enfoque en el éxito del cliente es otro aspecto destacado de su compromiso con la IA. Salesforce se enorgullece de brindar un excelente servicio al cliente y de ayudar a sus clientes a alcanzar sus metas y objetivos comerciales.
La confianza es la piedra angular de la relación entre Salesforce y sus clientes. Salesforce se compromete a proteger los datos y la privacidad de sus clientes y trabaja constantemente para mejorar sus medidas de seguridad. Su tecnología de IA es un claro ejemplo de este compromiso, ya que comprende los metadatos y prioriza la privacidad y seguridad de los datos.
Plataforma de IA confiable para empresas de clientes
Con su sólida plataforma de IA, Salesforce se ha convertido en un líder en la industria, brindando soluciones confiables y avanzadas a empresas de todo el mundo. La plataforma de IA de Salesforce utiliza algoritmos inteligentes y análisis de datos para ayudar a las empresas a tomar decisiones más informadas y estratégicas.
La plataforma de IA de Salesforce se destaca por su capacidad para comprender metadatos y aprovechar la información para brindar perspectivas valiosas. Esto permite a las empresas aprovechar al máximo sus datos y tomar decisiones basadas en hechos para impulsar su crecimiento y éxito.
Tecnología de IA que entiende metadatos y prioriza privacidad y seguridad de datos
La tecnología de IA de Salesforce es especialmente avanzada en términos de comprender metadatos y priorizar la privacidad y seguridad de los datos. La plataforma aprovecha los metadatos para ofrecer soluciones personalizadas y relevantes a los clientes sin comprometer la privacidad o seguridad de los datos.
La privacidad y seguridad de los datos son preocupaciones cada vez mayores en un mundo cada vez más digital. Salesforce se toma este problema en serio y ha invertido mucho en garantizar que sus soluciones de IA cumplan con los más altos estándares de seguridad y protección de datos.
Enfoque en productividad y éxito del cliente, no en utilizar datos con fines de lucro
A diferencia de muchas otras empresas de tecnología, Salesforce no se enfoca en utilizar los datos con fines de lucro. En cambio, se centra en mejorar la productividad y el éxito de sus clientes. La IA de Salesforce se utiliza para automatizar tareas repetitivas, proporcionar información valiosa y ayudar a las empresas a tomar decisiones más informadas y estratégicas.
Al utilizar la IA de Salesforce, las empresas pueden liberar tiempo y recursos para centrarse en actividades más estratégicas y de valor agregado. Esto no solo mejora la productividad, sino que también impulsa el éxito comercial a largo plazo.
Conclusión
Salesforce ha demostrado su compromiso con la IA al convertirse en una plataforma confiable y segura para empresas de todo el mundo. Sus sólidos valores de sostenibilidad, igualdad, innovación, éxito del cliente y confianza respaldan su enfoque en la IA y su compromiso de proporcionar soluciones de valor a sus clientes. Con su tecnología de vanguardia, comprensión de metadatos y priorización de privacidad y seguridad de datos, Salesforce está impulsando la productividad y el éxito del cliente, sin comprometer la confidencialidad de los datos o utilizarlos con fines de lucro.
Innovación y Accesibilidad de la IA
La Inteligencia Artificial (IA) está revolucionando la forma en que realizamos tareas cotidianas y está transformando la manera en que las empresas operan. Salesforce, una de las empresas líderes en el campo de la IA, ha desarrollado diversas innovaciones y mejoras para potenciar su plataforma Einstein y hacerla más accesible para usuarios de todos los niveles, desde no programadores hasta desarrolladores de bajo código.
Una de las características destacadas de la IA en Salesforce es su motor de flujo de trabajo integrado e inteligente. Este motor es capaz de automatizar trillones de tareas, lo cual agiliza los procesos empresariales y libera tiempo para que los equipos se enfoquen en tareas de mayor valor. Con la IA, las empresas pueden optimizar sus operaciones y ser más eficientes en la entrega de productos y servicios.
Otra ventaja significativa de la IA en Salesforce es su accesibilidad para no programadores y desarrolladores de bajo código. La plataforma Einstein ha sido diseñada pensando en estos usuarios, brindando herramientas intuitivas y fáciles de usar que permiten aprovechar los beneficios de la IA sin necesidad de tener conocimientos avanzados de programación. Esto impulsa la adopción de la IA en organizaciones de diversos tamaños y sectores, democratizando su uso.
Para fomentar la innovación en la plataforma Einstein, Salesforce ha lanzado un fondo de inversión de $500 millones para apoyar a emprendedores y startups. Este fondo busca impulsar el desarrollo de soluciones basadas en la IA y promover la creación de aplicaciones avanzadas que aprovechen el potencial de esta tecnología. Con esta iniciativa, Salesforce busca fortalecer su ecosistema de socios y continuar liderando el camino en términos de innovación en IA.
La ética y la responsabilidad son valores fundamentales en el desarrollo y aplicación de la IA. Salesforce ha hecho hincapié en la importancia de seguir prácticas éticas y responsables en el uso de la tecnología. La plataforma Einstein está diseñada para proteger la privacidad de los datos y garantizar la transparencia en el procesamiento de la información. Esto es especialmente relevante en un mundo cada vez más preocupado por la privacidad y la seguridad de los datos.
Además de las características propias de la plataforma Einstein, Salesforce también ha integrado su IA con otras empresas líderes en sus respectivos campos. La colaboración con empresas como Tableau y MuleSoft ha permitido mejorar las capacidades de IA e integración de Salesforce. Estas integraciones permiten a los usuarios aprovechar las funcionalidades de la IA en conjunto con otras herramientas y servicios, potenciando su eficiencia y brindando soluciones más completas.
En resumen, Salesforce está impulsando la innovación y la accesibilidad de la IA a través de su plataforma Einstein. Con su motor de flujo de trabajo integrado e inteligente, su enfoque en la accesibilidad para no programadores y desarrolladores de bajo código, su fondo de inversión para emprendedores y startups, su énfasis en prácticas éticas y responsables, y su integración con empresas líderes en el mercado, Salesforce está liderando el camino en el campo de la IA y permitiendo a las empresas aprovechar todo el potencial de esta tecnología para impulsar su éxito.
Salesforce y Einstein Co-Pilot Studio
En la era de la inteligencia artificial (IA), las organizaciones están buscando formas de aprovechar al máximo esta tecnología para mejorar sus procesos y aumentar su eficiencia. Salesforce y Einstein Co-Pilot Studio se han convertido en una herramienta muy valiosa para personalizar y ampliar las capacidades de la IA.
Una de las principales ventajas de Salesforce y Einstein Co-Pilot Studio es su capacidad para permitir a las empresas conectar modelos propios e integrarse con modelos de socios. Esto significa que las organizaciones pueden aprovechar tanto los modelos preexistentes como los que han creado internamente para obtener resultados más precisos y personalizados.
Otra característica destacada de esta herramienta es la creación de instrucciones y habilidades para mejorar las capacidades de la IA. Los usuarios pueden desarrollar instrucciones y habilidades específicas que ayudan al sistema a comprender y realizar tareas complejas de manera más eficiente. Esto implica un enfoque en el razonamiento y la ejecución de tareas similares a como lo haría un humano.
Einstein Co-Pilot Studio facilita la implementación de la IA en organizaciones de todos los tamaños y sectores. A través de su interfaz intuitiva, las empresas pueden aprovechar al máximo los beneficios de la IA sin necesidad de invertir en recursos adicionales o conocimientos técnicos avanzados.
Algunas de las tareas que Einstein Co-Pilot Studio puede ejecutar incluyen el análisis de grandes cantidades de datos, la clasificación de información, el procesamiento de lenguaje natural y la generación de insights basados en patrones identificados. Esto permite a las organizaciones automatizar procesos, tomar decisiones más informadas y mejorar su eficiencia operativa en general.
Usar Einstein Co-Pilot Studio también significa que las empresas pueden contar con un sistema de IA personalizado y adaptable a sus necesidades y objetivos específicos. Los modelos desarrollados en la plataforma pueden ajustarse y actualizarse fácilmente a medida que se obtienen nuevos datos y se identifican nuevas tendencias y patrones.
En resumen, Salesforce y Einstein Co-Pilot Studio son una combinación poderosa para impulsar la implementación exitosa de la IA en organizaciones. Esta herramienta ofrece la posibilidad de personalizar y ampliar las capacidades de la IA, conectar modelos propios e integrarse con modelos de socios, y mejorar el razonamiento y la ejecución de tareas como lo haría un humano. Todo esto, sin la necesidad de invertir en recursos adicionales o conocimientos técnicos avanzados.
Integración de Slack en Salesforce
La integración de Slack en Salesforce ha revolucionado la forma en que los profesionales trabajan y se comunican. Con la combinación de la plataforma de colaboración en equipo líder en el mercado, Slack, y el popular sistema de gestión de relaciones con los clientes, Salesforce, los usuarios pueden aprovechar una nueva experiencia de usuario que ofrece funciones impulsadas por IA, mejorando su productividad y eficiencia.
Nueva experiencia de usuario y funciones impulsadas por IA
La integración de Slack en Salesforce introduce una nueva y emocionante experiencia de usuario, que permite a los equipos colaborar de manera más efectiva y eficiente. Con la función de inteligencia artificial de Slack, los usuarios pueden recibir sugerencias inteligentes y recomendaciones basadas en su flujo de trabajo. Esto ayuda a optimizar las tareas diarias y a tomar decisiones informadas.
Slack Lists para rastrear trabajo y Slack Sales Elevate para vendedores
Una de las características destacadas de la integración de Slack en Salesforce es la capacidad de utilizar Slack Lists para rastrear el trabajo y mantener al equipo organizado. Los usuarios pueden crear listas personalizadas para proyectos, tareas pendientes y seguimiento de hitos. Esto facilita la colaboración y el seguimiento del progreso del trabajo.
Además, los vendedores se benefician de Slack Sales Elevate, una característica diseñada específicamente para ellos. Esta función permite a los vendedores acceder a información y recursos clave directamente desde Slack, lo que les ayuda a mejorar las relaciones con los clientes y cerrar más acuerdos de manera efectiva.
Visualización y actualización de datos de Salesforce directamente en Slack
No hay necesidad de cambiar constantemente entre Salesforce y Slack para acceder a la información de los clientes. Con la integración de Slack en Salesforce, los usuarios pueden ver y actualizar los datos de Salesforce directamente desde la interfaz de Slack. Esto ahorra tiempo y reduce la posibilidad de errores al mantener la información actualizada en todo momento.
Generación de respuestas cohesivas y resúmenes de actividad perdida en Slack
Con la integración de Slack en Salesforce, los usuarios pueden generar respuestas cohesivas y personalizadas directamente desde Slack. La inteligencia artificial de Slack analiza el contexto de las conversaciones y sugiere respuestas relevantes y coherentes. Esto ayuda a los usuarios a responder de manera más rápida y precisa, mejorando la comunicación con los clientes y agilizando los procesos de ventas y servicio.
Además, Slack ofrece la función de resumen de actividad perdida, que registra y muestra una visión general de las actualizaciones y actividades que se han perdido mientras el usuario no estaba en línea. Esto es especialmente útil para mantenerse al día con los cambios y actualizaciones, incluso si se ha estado fuera del sistema por un tiempo.
Creación de plantillas específicas para ventas con IA generativa
La integración de Slack en Salesforce también incluye la capacidad de crear plantillas específicas para ventas con IA generativa. Estas plantillas están diseñadas para ayudar a los vendedores a generar propuestas y presentaciones de manera rápida y eficiente. Al aprovechar la inteligencia artificial generativa, Slack puede generar contenido personalizado y atractivo, ahorrando tiempo y esfuerzo a los equipos de ventas.
En resumen, la integración de Slack en Salesforce ha brindado a los usuarios una experiencia de usuario mejorada, impulsada por la inteligencia artificial y llena de características útiles. Desde Slack Lists hasta Slack Sales Elevate, la posibilidad de visualizar y actualizar datos de Salesforce directamente en Slack, la generación de respuestas cohesivas y la creación de plantillas específicas para ventas con IA generativa, esta integración ha transformado la forma en que los profesionales trabajan y logran resultados exitosos.
Conclusión y Próximos Eventos
La conferencia Dreamforce ha comenzado, y hay muchas sesiones y eventos emocionantes programados para los próximos días. Desde charlas inspiradoras hasta demostraciones de última tecnología, aquí hay un resumen de lo que puedes esperar en los próximos eventos tecnológicos.
Innovación, Confianza y Éxito del Cliente con IA
Uno de los temas centrales en Dreamforce este año es la innovación impulsada por la inteligencia artificial (IA). Las sesiones se centrarán en cómo las organizaciones pueden aprovechar la IA para impulsar el crecimiento y mejorar la experiencia del cliente. También habrá discusiones sobre la confianza en los datos y cómo las empresas pueden asegurarse de que sus sistemas de IA sean éticos y seguros.
Oportunidades para Aprender, Conectarse y Hacer el Bien en la Comunidad
Dreamforce no solo se trata de sesiones y exhibiciones tecnológicas, también es una oportunidad para aprender, conectarse y hacer el bien en la comunidad. Habrá actividades de voluntariado, oportunidades de networking y charlas inspiradoras sobre la importancia de devolver a la sociedad. Estas actividades brindan a los asistentes la posibilidad de ampliar sus conocimientos, establecer contactos y contribuir a causas benéficas.
TL;DR
Dreamforce es una conferencia llena de sesiones y eventos tecnológicos emocionantes. La innovación impulsada por la IA es un tema central, con un enfoque en cómo aprovecharla para la mejora del éxito del cliente. Además, hay oportunidades para aprender, conectarse y hacer el bien en la comunidad, lo que brinda a los asistentes una experiencia enriquecedora y gratificante.
Última actualización el 7 de septiembre de 2023 por Rakesh Gupta Como nuevo Salesforce Certified AI Associate, comparto mis experiencias de estudio contigo y quiero que seas el próximo en superarlo Así que, ¡prepárese y sumérjase! 👉 Ya que estás aquí, es posible que desees
El post Cómo aprobar el examen de certificación Salesforce Certified AI Associate appeared first on Campeón de la Automatización.
Cómo aprobar el examen de certificación Salesforce Certified AI Associate appeared first on Campeón de la Automatización
Con la IA como prioridad para todos los líderes de TI, descubra cómo estos nuevos lanzamientos de IA están impulsando la productividad y la eficiencia de los equipos de TI.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Introducción a los agentes autónomos | Blog de desarrolladores de Salesforce
El panorama de la IA está cambiando a un ritmo tan rápido que las tecnologías futuristas como la IA autónoma ya están mucho más cerca de lo que piensas. Esto se debe a la forma en que los grandes modelos de lenguaje (LLM) están comenzando a incorporarse en casi todas las formas en que interactúa con las aplicaciones. Para los desarrolladores, esto supone un cambio en la forma en que abordamos la creación de aplicaciones, desde las formas en que las reunimos hasta la creación con una UX conversacional completamente nueva.
En esta publicación de blog, veremos cómo los agentes autónomos incorporan la IA a la forma en que funcionan las aplicaciones y, al mismo tiempo, nos acercan a un mundo autónomo.
¿Qué son los agentes autónomos?
En nuestro panorama tecnológico, los agentes son sistemas avanzados que aprovechan el poder de los modelos lingüísticos para razonar y tomar decisiones. Lo que los diferencia de otro bot o marco es el hecho de que los agentes pueden realizar tareas en su nombre utilizando herramientas y memoria.
Las herramientas son extensiones de las capacidades de un modelo de lenguaje, que cierran brechas en su conocimiento y le permiten interactuar con fuentes de datos externas o recursos computacionales. Con estas herramientas, un modelo de lenguaje puede obtener datos en tiempo real, ejecutar tareas y utilizar los resultados para informar sus acciones posteriores. Por ejemplo, si un modelo de lenguaje conoce información solo hasta una fecha determinada, las herramientas pueden proporcionarle información más actualizada de la web, bases de datos u otras fuentes externas.
La memoria proporciona a los agentes la capacidad de recordar interacciones pasadas, lo que puede ser esencial para la continuidad de las tareas y el aprendizaje de acciones anteriores. Esta memoria puede ser de corta duración, centrándose en interacciones recientes, o de largo plazo, recordando eventos o patrones pasados importantes que son relevantes para situaciones actuales.
Juntos, estos elementos transforman un modelo de lenguaje en un agente que no sólo puede comprender y generar texto, sino también actuar sobre esa comprensión en contextos del mundo real. Dichos agentes pueden ejecutar soluciones de forma autónoma para los usuarios, pero también pueden integrar la intervención humana, especialmente en escenarios donde existen incertidumbres o excepciones.
El agente determina la acción, selecciona la herramienta relevante y decide la entrada para esa herramienta.
La herramienta ofrece un resultado.
El proceso recorre los pasos 2 a 4 hasta que el agente determina que la tarea está completa
Este proceso es el que empieza a hacer autónomo al agente. Al confiar en el LLM para pensar en la respuesta y determinar las acciones apropiadas necesarias, actúa por sí solo para crear el resultado deseado.
Usando LangChain como ejemplo, digamos que queremos crear una aplicación que permita a un cliente gestionar sus pedidos. Primero, podríamos darle a la aplicación acceso a nuestra base de datos de pedidos, base de datos de clientes y API de socios de envío. Luego, configuraríamos una serie de herramientas a las que puede acceder la aplicación para consultar datos, actualizarlos y utilizar IA generativa para redactar una respuesta.
Este agente de gestión de pedidos dispone de seis herramientas que puede utilizar “dentro de su dominio de conocimiento”:
Query Orders es una herramienta que puede consultar pedidos desde una base de datos a través de una API conectada a una base de datos PostgreSQL.
Update Order es una herramienta que puede actualizar un único pedido desde una base de datos a través de una API conectada a una base de datos PostgreSQL.
Manage TrackingInfo es una herramienta que puede gestionar un envío a través de una API proporcionada por una empresa de envío
Get Customer es una herramienta que puede consultar datos de clientes desde una API conectada a un sistema CRM
Update Customer es una herramienta que puede actualizar los datos de los clientes a través de una API conectada a un sistema CRM
Compose Response es una herramienta que puede pasar indicaciones a un LLM y devolver una respuesta.
Veamos ahora cómo un agente podría manejar casos de uso relacionados con la gestión de pedidos. Por ejemplo, ¿cómo puede el agente ayudar a un usuario a obtener una actualización sobre el estado de su pedido?
El usuario solicita la información más reciente de su pedido a través de un chatbot
El agente “piensa” y determina la acción correcta que debe tomar
El agente primero utiliza la herramienta Consultar cliente para consultar los detalles del cliente.
Luego, el agente utiliza la herramienta Consultar pedidos para consultar pedidos desde una base de datos.
Luego, el agente utiliza la herramienta Administrar información de seguimiento para obtener la información de envío más reciente de su socio de envío.
Luego, el agente toma ambos resultados y utiliza la herramienta Redactar respuesta para generar una respuesta.
La respuesta se devuelve al usuario.
En este escenario, el agente pudo tomar las herramientas que le proporcionamos y determinar el pedido y los parámetros que necesitan para crear el resultado correcto para el usuario, en este caso, toda su información de pedido y envío. Lo que es importante tener en cuenta aquí es que el usuario puede hacerle al agente cualquier pregunta sobre su pedido y el agente puede usar IA para razonar y usar las herramientas en el orden que necesite.
Como desarrollador, su función se centra más en crear las herramientas y permitir que el agente administre la orquestación.
Mantener a un humano informado
El desafío ético con los agentes autónomos es que no hay ningún ser humano involucrado cuando se trata de ejecutar las acciones. En Salesforce, estamos comprometidos con el uso ético de la IA y queremos dejarlo claro en nuestras implementaciones de este tipo de tecnología. Ciertas reglas exigen que una persona sea responsable de tomar la decisión final en asuntos con consecuencias legales o de impacto comparable, incluida la contratación laboral, la aprobación de préstamos, las admisiones educativas y las sugerencias en justicia penal. Esta insistencia en la supervisión humana, en lugar de decisiones automatizadas, tiene como objetivo identificar y reducir mejor los posibles sesgos y daños.
¿Qué significa esto para el futuro de Salesforce?
En Dreamforce este año, les dimos una idea de cómo será el futuro de Salesforce y la IA autónoma en la plataforma Einstein 1. Einstein Copilot es nuestra respuesta a un asistente conversacional de IA generativa basado en agentes que utiliza habilidades y acciones para guiar a los usuarios a través de la interacción con Salesforce. Esto introduce un paradigma de desarrollo completamente nuevo para Salesforce, uno en el que estamos creando piezas de funcionalidad más pequeñas que pueden ser orquestadas por Einstein Copilot.
¿Cómo se compara Einstein Copilot con un agente de IA?
Si bien existen varias similitudes entre Copilot y un marco de agente de código abierto, la verdadera diferencia es el acceso de Copilot a toda la plataforma de metadatos de Salesforce. No sólo eso, sino que el alcance es mucho mayor. En lugar de agentes individuales, tienes muchas habilidades , y en lugar de herramientas tienes acciones .
Por ejemplo, si desea actualizar un pedido utilizando Copilot, deberá crear una habilidad de gestión de pedidos. Con otros marcos, necesitarías crear un agente completo para la gestión de pedidos.
Cuando se trata de acciones, usted tiene el poder de la Plataforma Einstein 1 detrás de usted. Podrá utilizar Apex, Flow, las numerosas API de plataforma, SOQL y mucho más para brindarle a su habilidad la capacidad de reunir datos desde cualquier lugar. También tiene acceso directo a los datos de toda la plataforma.
Estudio Einstein Copiloto
Estas habilidades y acciones se reúnen en Einstein Copilot Studio , que le permite ensamblar flujos, indicaciones, Apex y más en colecciones de funcionalidades.
Actualmente existen tres herramientas dentro de Einstein Copilot Studio:
Prompt Builder le permite crear plantillas de mensajes utilizando campos de combinación de registros y datos proporcionados por Flow y Data Cloud.
Skills Builder le permite ensamblar acciones, como métodos invocables de Apex, flujos y llamadas de API de MuleSoft, y otorgárselas a un agente.
Model Builder le permite traer sus propios modelos de IA a Salesforce
Juntos, podrán crear agentes potentes en Salesforce que puedan usar su código para responder preguntas y ayudar a los usuarios.
La capa de confianza de Einstein
Una gran ventaja de Einstein Copilot es Einstein Trust Layer. Trust Layer proporciona un entorno seguro para el procesamiento de datos a través de un modelo de lenguaje grande, lo que garantiza que los datos del usuario permanezcan confidenciales al enmascarar información de identificación personal, verificar la salida en busca de contenido inapropiado y garantizar que no haya persistencia de datos fuera de Salesforce.
Trust Layer se ejecuta a través de un proceso de varios pasos para garantizar que los datos estén fundamentados y enmascarados antes de ser procesados por un proveedor de LLM externo, y proporciona una puerta de enlace segura para interactuar con dichos LLM. Una vez que se ha generado una respuesta, la verifica en busca de contenido tóxico y desenmascara los datos antes de presentárselos al usuario. Puede ver más de cerca la capa de confianza en nuestra publicación de blog Dentro de la capa de confianza de Einstein .
Resumen
La IA autónoma se hace realidad mucho más cerca a través de agentes, lo que marca el comienzo de una nueva era de tecnología en la que el razonamiento y la toma de decisiones se potencian con herramientas y memoria. Einstein Copilot de Salesforce introduce este enfoque impulsado por agentes en la plataforma, ofreciendo un asistente de IA conversacional que guía a los usuarios, aprovecha los vastos metadatos de Salesforce y garantiza la integridad de los datos a través de Einstein Trust Layer. Este cambio transformador significa no sólo una evolución en las interacciones de IA, sino también una promesa de experiencias seguras, eficientes y fluidas para los usuarios de Salesforce.
Sobre el Autor
Stephan Chandler-García es el director de contenido estratégico de Salesforce. Ha estado en el ecosistema de Salesforce durante más de 10 años como cliente, socio e ISV. Puede encontrar a Stephan en persona en un grupo comunitario Trailblazer o en una de nuestras conferencias en todo el mundo. Alternativamente, sígalo en X (Twitter) o GitHub .
Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Habilitación de MFA en MuleSoft para canalizaciones de CI/CD mediante acciones de GitHub | Blog de desarrolladores de Salesforce
La mayoría de las cuentas empresariales de Anypoint Platform requieren que utilice mecanismos de autenticación multifactor (MFA) para mayor seguridad. Esto significa que, además de su nombre de usuario y contraseña habituales, necesitará un paso adicional para autenticarse (por ejemplo, una aplicación de autenticación en su teléfono).
Cuando utiliza canalizaciones de CI/CD para sus aplicaciones Mule y MFA está habilitado en su cuenta, la configuración para autenticarse usando el complemento Mule Maven será diferente que si solo estuviera usando su nombre de usuario y contraseña. Hay más pasos que debe seguir desde su cuenta de Anypoint Platform para habilitar sus canales de CI/CD con este método de autenticación.
En esta publicación, aprenderá cómo configurar una canalización de GitHub Actions para que funcione con su cuenta habilitada para MFA desde Anypoint Platform.
Requisitos previos
Crear una aplicación conectada
Dado que usar el nombre de usuario y la contraseña de su plataforma Anypoint no es suficiente para autenticarse en el proceso, debe crear unaaplicación conectadapara usar sus credenciales (ID/Secreto). Para crearlo, vaya a su cuenta de Anypoint Platform y navegue hastaGestión de acceso>Aplicaciones conectadas>Crear aplicación.
Asigne un nombre a su aplicación para identificarla de otras que pueda crear. Por ejemplo,github-actions. Seleccione el tipo La aplicación actúa por sí solay haga clic en el botón Agregar ámbitos.
Seleccione los siguientes 10 ámbitos.
Desarrollador del centro de diseño
Ver entorno
Ver organización
Perfil
Administrador de organización de CloudHub
Crear aplicaciones
Eliminar aplicaciones
Descargar aplicaciones
Leer aplicaciones
Leer servidores
Haga clic enSiguiente. Seleccione su grupo empresarial y haga clic enSiguiente. Seleccione su entorno (por ejemplo, Sandbox) y haga clic enSiguiente. Revise que los alcances sean correctos y haga clic enAgregar alcances. Haga clic enGuardar.
Una vez creada la aplicación, asegúrese de copiar tantoel IDcomoel Secreto. Los utilizará en la configuración de la canalización como método de autenticación.
Configura tus secretos de GitHub Actions
Vaya a su repositorio de GitHub. Haga clic en lapestañaConfiguración > Secretos y variables>Acciones>Nuevo secreto del repositorio. En el campo de nombre, agregueCONNECTED_APP_CLIENT_ID. En el campo secreto, agregue la identificación real que acaba de copiar en el paso anterior.Repita este paso para crear otro secreto con el secreto real que copió en el paso anterior. Utilice el nombreCONNECTED_APP_CLIENT_SECRET.
Crear una canalización de CI/CD
De vuelta en el código de su aplicación Mule, cree una carpeta .githuben el nivel raíz. Dentro de esta carpeta, cree otra carpeta llamadaworkflows. Dentro de esta carpeta, cree un archivo build.ymlcon el siguiente contenido:mule-mfa-cicd-build.yml. Tenga en cuenta que la sucursal mainse utiliza en la línea 5. Si su sucursal tiene un nombre diferente, asegúrese de actualizar esta configuración.
En este archivo, describimos los pasos para generar el archivo JAR de nuestra aplicación Mule e implementarlo en nuestra cuenta de Anypoint Platform usando GitHub Actions. Observe que estamos usando los secretos creados previamente en el último paso para pasarlos a nuestro proyecto a través de Maven. Aquí declaramos dos variables de entorno Java (client.idyclient.secret) para copiar las credenciales de nuestra aplicación de los secretos de GitHub para que el archivo pom.xml pueda usarse más adelante.
Modifica tu configuración de Maven
En su proyecto Mule, abra su archivo pom.xml. Localice el complemento org.mule.tools.mavenenproject/build/plugins. Agregue la siguiente configuración a este complemento.
Vuelva a verificar estas configuraciones en caso de que necesite actualizarlas para que coincidan con su caso de uso. Por ejemplo,muleVersion,applicationName,environmentoregion. Usaremos los campos connectedAppClientIdyconnectedAppClientSecretpara pasar las variables Java que declaramos anteriormente en la configuración de Maven.
Es importante que no codifique las credenciales de la aplicación conectada en este archivo por razones de seguridad. Es por eso que mantenemos los valores como secretos de GitHub. Recuerda que puedes accedera nuestro repositorio de ejemplosi necesitas comparar tu código con el nuestro.
ejecutar la tubería
Una vez que todas sus configuraciones estén listas, confirme y envíe sus cambios al repositorio remoto. Esto activará la canalización en GitHub. Puede ver el proceso haciendo clic en la pestaña Accionesde su repositorio de GitHub.
Una vez completado el proceso, su aplicación Mule se implementará en Runtime Manager. Tenga en cuenta que el archivo JAR contendrá el hash de confirmación en su nombre.
Conclusión
Habilitar canalizaciones de CI/CD es importante para automatizar tareas repetitivas. En lugar de implementar manualmente una aplicación Mule cada vez que hay un cambio en el código, podemos crear canalizaciones para que realicen estas tareas por nosotros. Este fue un ejemplo simple que utiliza solo una sucursal y un entorno, pero puede conectar otras sucursales a otros entornos en Anypoint Platform. Por ejemplo,dev,qa,prod, etc.
En esta publicación, aprendimos cómo implementar automáticamente una aplicación Mule en CloudHub cuando usamos la autenticación multifactor en nuestra cuenta de Anypoint Platform porque la mayoría de las cuentas empresariales tienen esta configuración habilitada. Sin embargo, cuando solo usa una cuenta de prueba gratuita, no necesita crear una aplicación conectada si no usa MFA en su cuenta. Puede utilizar su nombre de usuario y contraseña de Anypoint Platform para iniciar sesión.
Hay muchas cosas que puede automatizar al utilizar canalizaciones de CI/CD para sus aplicaciones Mule. Puedes ejecutar pruebas automatizadas antes de implementar tu aplicación Mule, por ejemplo. ¿Se te ocurren otras tareas repetitivas que puedas automatizar en tus canalizaciones?
Nota: Las versiones iniciales de la canalización se basan en el siguiente repositorio creado por Archana Patel:arch-jn/github-actions-mule-cicd-demo.
Recursos adicionales
Sobre el Autor
Alex Martínez formó parte de la comunidad de MuleSoft antes de unirse a MuleSoft como desarrollador defensor. Fundó ProstDev para ayudar a otros profesionales a aprender más sobre la creación de contenido. En su tiempo libre, encontrarás a Alex jugando juegos de Nintendo o Playstation y escribiendo reseñas sobre ellos. Siga a Alex en LinkedIn o en la comunidad Trailblazer .
Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Creación de aplicaciones impulsadas por IA con LLM y Einstein | Blog de desarrolladores de Salesforce
La IA generativa es la tecnología más transformadora desde Internet y revoluciona la forma en que creamos e interactuamos con la información. Para los desarrolladores, esto plantea nuevas preguntas: desde la práctica "¿Cómo puedo crear aplicaciones impulsadas por IA con modelos de lenguaje grandes (LLM)?" Más profundamente, “¿Cómo cambiará la IA generativa la naturaleza de las aplicaciones? ” Exploramos estas dos preguntas en esta publicación de blog.
¿Cómo creo aplicaciones impulsadas por IA con LLM?
Comencemos con la primera pregunta: "¿Cómo creo aplicaciones con LLM?" y explore tres opciones que comúnmente se consideran:
Entrena tu propio modelo
Personaliza un modelo de código abierto
Utilice modelos existentes a través de API
Entrena tu propio modelo
Entrenar su propio modelo le brinda control total sobre los datos de los que aprende su modelo. Por ejemplo, puede entrenar un modelo con datos específicos de su industria. Un modelo entrenado con datos de un dominio específico generalmente será más preciso que un modelo de propósito general para casos de uso centrados en ese dominio. Si bien entrenar su propio modelo ofrece más control y precisión, puede que no siempre sea el mejor enfoque. Aquí hay algunas cosas para considerar:
Tiempo y recursos:formar su propio LLM desde cero puede llevar semanas o incluso meses. Como punto de referencia, aunque es probable que su modelo sea mucho más pequeño, el modelo GPT-3 de OpenAI tardó 1,5 millones de horas de GPU en entrenarse.
Experiencia:para entrenar su modelo, también necesitará un equipo de ingenieros especializados en aprendizaje automático (ML) y procesamiento del lenguaje natural (NLP).
Seguridad de los datos: el poder de los LLM hace que sea tentador crear modelos que aprendan de todos sus datos, pero esto no siempre es lo correcto desde el punto de vista de la seguridad de los datos. Puede haber tensión entre la forma en que aprenden los LLM y la forma en que se implementan las políticas de seguridad de datos en su empresa. Los LLM aprenden de grandes cantidades de datos. ¡Cuantos más datos mejor! Sin embargo, con seguridad a nivel de campo (FLS) y permisos estrictos, las políticas de seguridad de datos corporativas a menudo se basan en el principio de privilegio mínimo: los usuarios solo deben tener acceso a los datos que necesitan para realizar su trabajo específico. ¡Cuantos menos datos mejor! Por lo tanto, un modelo formado con todos los datos disponibles de los clientes y puesto a disposición de todos en su empresa puede no ser una buena idea y violar las políticas de seguridad de datos de su empresa. Sin embargo, un modelo entrenado en especificaciones de productos y resoluciones de tickets de soporte anteriores puede ayudar a los agentes a resolver tickets nuevos sin comprometer la seguridad de los datos.
Personaliza un modelo de código abierto
Personalizar un modelo de código abierto normalmente lleva menos tiempo y es menos costoso que entrenar su propio modelo desde cero. Sin embargo, aún necesita un equipo de ingenieros especializados en aprendizaje automático (ML) y procesamiento del lenguaje natural (NLP). Dependiendo del caso de uso, es posible que aún experimentes la tensión de seguridad de los datos descrita anteriormente.
Utilice modelos existentes a través de API
Utilizar modelos existentes a través de API es la forma más sencilla de crear aplicaciones con LLM. Esta es también la opción más utilizada en este momento. Sin embargo, estos modelos no se han entrenado con los datos contextuales o privados de su empresa y, por lo tanto, el resultado que producen puede ser demasiado genérico para ser útil.
En esta publicación de blog, exploramos diferentes técnicas para agregar datos contextuales o privados de la empresa a través del mensaje. Debido a que el mensaje se crea dinámicamente en nombre del usuario, solo incluye datos a los que el usuario tiene acceso, lo que aborda la tensión de seguridad de los datos descrita anteriormente. Es posible que le preocupe pasar datos privados a una API de terceros, pero existen técnicas para abordar esa preocupación y también las describimos en esta publicación de blog.
Creación de aplicaciones impulsadas por IA utilizando modelos existentes a través de API
Llamada API básica
Los principales proveedores de modelos como OpenAPI , Anthropic , Google , Hugging Face y Cohere ofrecen API para trabajar con sus modelos. En la implementación más básica, su aplicación captura un mensaje del usuario, lo pasa como parte de la llamada API y muestra el resultado generado al usuario.
Por ejemplo, así es como se vería la llamada API usando la API OpenAI:
Esta opción puede funcionar para casos de uso simples que solo requieren un resultado general basado en conocimientos generales. Por ejemplo, " Escribe un haiku sobre el invierno" o "Escribe una declaración SQL de muestra con una unión externa". Pero si necesita una respuesta que se adapte a su propio contexto o a los datos privados de su empresa, es probable que el resultado generado sea demasiado genérico para ser útil.
Por ejemplo, digamos que un usuario ingresa el siguiente mensaje:
Escriba un correo electrónico de presentación para el director ejecutivo de Acme.
El correo electrónico generado no sería personalizado ni relevante porque el modelo no sabe nada sobre su relación con Acme y los negocios que ha hecho con ellos.
Puesta a tierra del LLM
Para que la respuesta sea más relevante y contextual, el usuario puede fundamentar el LLM con información adicional. Por ejemplo, pueden ingresar el siguiente mensaje:
Usted es John Smith, representante de cuentas de Northern Trail Outfitters. Escriba un correo electrónico de presentación a Lisa Martinez, directora ejecutiva de ACME. Aquí hay una lista de los últimos tres pedidos que Acme realizó a Northern Trail Outfitters: Colección Verano 2023: $375,286 Colección Primavera 2023: $402,255 Colección Invierno 2022: $357,542
Esto permite que el LLM genere un resultado mucho más relevante. Sin embargo, este enfoque plantea dos problemas:
El usuario debe ingresar mucha información de conexión a tierra manualmente. Por lo tanto, la calidad del resultado depende en gran medida de la calidad de la pregunta ingresada por el usuario.
Está pasando información confidencial al proveedor del modelo donde potencialmente podría persistir o usarse para entrenar aún más el modelo, lo que significa que sus datos privados podrían aparecer en la respuesta generada por el modelo de otra persona.
Construcción rápida y puesta a tierra dinámica.
Para abordar la primera limitación anterior, puede construir el mensaje mediante programación. El usuario ingresa una cantidad mínima de información o simplemente hace clic en un botón en la aplicación y luego usted crea el mensaje mediante programación agregando datos relevantes. Por ejemplo, en respuesta a un clic en el botón “Escribir correo electrónico de introducción”, podría:
Llame a un servicio para obtener información sobre el usuario.
Llame a un servicio para obtener información sobre el contacto.
Llame a un servicio para obtener la lista de oportunidades recientes.
Construya el mensaje utilizando la información obtenida de los servicios de datos anteriores.
Así es como podrían verse estos pasos de construcción rápidos en Apex:
El principal inconveniente de este enfoque es que requiere un código personalizado para cada mensaje para poder realizar la sencilla tarea de fusionar datos dinámicos en texto estático.
Plantillas de aviso
Para facilitar la construcción del mensaje, podemos usar plantillas: un patrón de desarrollo de software bien conocido que se usa comúnmente para fusionar datos dinámicos en documentos estáticos. Con una plantilla, escribe un archivo de solicitud utilizando marcadores de posición que se reemplazan dinámicamente con datos dinámicos en tiempo de ejecución.
Así es como se vería el ejemplo de Apex anterior usando un lenguaje de plantilla genérico:
Eres {{user.Name}}, {{user.Title}} en {{ user.CompanyName }} Escriba un correo electrónico de presentación a {{contact.Name}}, {{contact.Title}} en {{contact.Account.Name}} Estas son las oportunidades de {{contact.Account.Name}}: {{#oportunidades}} {{Nombre}}: {{Cantidad}} {{/oportunidades}}
Las plantillas de mensajes no solo son útiles para crear mensajes mediante programación, sino que también se pueden utilizar como base para herramientas gráficas que admiten la creación de mensajes en un entorno de arrastrar y soltar.
Estudio rápido
Por eso creamos Prompt Studio, un nuevo creador de Salesforce que facilita la creación de indicaciones. Le permite crear plantillas de mensajes en un entorno gráfico y vincular campos de marcador de posición a datos dinámicos disponibles a través de datos de páginas de registro, un flujo, una nube de datos, una llamada de Apex o una llamada API. Una vez creada, se puede utilizar una plantilla de solicitud en diferentes lugares para consultar el modelo, incluidas las páginas de registro y el código Apex.
Capa de confianza de Einstein
Prompt Builder le permite definir mensajes basados dinámicamente en un entorno gráfico. Pero, ¿cómo se envía ese mensaje de forma segura a un proveedor de LLM?
Puede enviar el mensaje directamente a la API del proveedor de LLM, pero hay una serie de preguntas a considerar con ese enfoque:
¿Qué pasa con los problemas de cumplimiento y privacidad si pasa datos de información de identificación personal (PII) en el mensaje? ¿El proveedor del modelo podría conservar los datos de PII o incluso utilizarlos para entrenar aún más el modelo?
¿Cómo se evitan las alucinaciones, la toxicidad y los sesgos en los resultados generados por los LLM?
¿Cómo se rastrea y registra los pasos de creación de mensajes con fines de auditoría?
Si utiliza la API del proveedor de LLM directamente, tendrá que escribir un código personalizado para responder a estas preguntas. Hay muchas cosas a considerar y puede resultar difícil hacerlo bien para todos los casos de uso.
Ingrese a la capa de confianza de Einstein. Einstein Trust Layer le permite enviar solicitudes a LLM de forma confiable, abordando las inquietudes mencionadas anteriormente.
Así es como funciona:
En lugar de realizar llamadas API directas, utiliza LLM Gateway para acceder al modelo. LLM Gateway admite diferentes proveedores de modelos y abstrae las diferencias entre ellos. Incluso puedes conectar tu propio modelo.
Antes de enviar la solicitud al proveedor del modelo, pasa por una serie de pasos que incluyen el enmascaramiento de datos que reemplaza los datos PII con datos falsos para garantizar la privacidad y el cumplimiento de los datos.
Para proteger aún más sus datos, Salesforce tiene acuerdos de retención cero con proveedores de modelos, lo que significa que los proveedores de modelos no persistirán ni entrenarán más sus modelos con datos enviados desde Salesforce.
Cuando se recibe el resultado del modelo, pasa por otra serie de pasos, incluido el desenmascaramiento, la detección de toxicidad y el registro de seguimiento de auditoría. Demasking restaura los datos reales que fueron reemplazados por datos falsos por motivos de privacidad. La detección de toxicidad comprueba si hay contenido dañino u ofensivo en el resultado. El registro de seguimiento de auditoría registra todo el proceso con fines de auditoría.
De cara al futuro: creación de aplicaciones de una forma totalmente nueva
Ahora echemos un vistazo a lo que viene y abordemos la segunda pregunta planteada al principio de este artículo: ¿Cómo cambiará la IA generativa la naturaleza de las aplicaciones?
Encadenamiento rápido
La lógica involucrada en la creación de un mensaje a veces puede volverse compleja. Puede implicar múltiples llamadas a API o servicios de datos, como en el ejemplo de conexión a tierra dinámica anterior. Responder a la pregunta de un solo usuario puede incluso implicar varias llamadas al LLM. Esto se llama encadenamiento rápido. Considere el siguiente ejemplo:
Para construir el mensaje:
Realizamos una primera llamada API o servicio de datos para obtener datos contextuales de la empresa
Los datos que regresan de la primera llamada al servicio de datos se usan para crear un primer mensaje que usamos para consultar el LLM.
La salida del LLM se utiliza como entrada para una segunda llamada de servicio de datos.
Los datos que regresan de la segunda llamada al servicio de datos se utilizan para crear un segundo mensaje cuya respuesta se envía al usuario.
Las posibilidades de combinar llamadas de servicios de datos y llamadas de LLM para generar un resultado son infinitas.
Orquestación de IA
El enfoque descrito hasta ahora funciona bien, pero a medida que estos flujos de trabajo se vuelven más complejos, podemos ver la necesidad de alguna forma de orquestación. Como desarrollador, luego crearía una serie de bloques de construcción que realizan tareas granulares: recuperar datos sobre un cliente, actualizar un registro, realizar alguna lógica computacional, etc. Estos bloques de construcción se pueden orquestar o remezclar de diferentes maneras usando un herramienta de orquestación. Esto se podría hacer usando una herramienta de orquestación tradicional que le permita definir qué bloques de construcción usar, en qué orden y cuándo (con diferentes ramas "si"). Pero, ¿qué pasaría si la orquestación en sí estuviera impulsada por IA con un orquestador que pudiera razonar y elegir qué bloques de construcción usar y cómo componerlos para realizar una tarea específica? La orquestación impulsada por IA es un nuevo paradigma poderoso que tiene el potencial de revolucionar la forma en que interactuamos con los sistemas de IA y creamos aplicaciones.
El siguiente diagrama describe este nuevo paradigma de bloques de construcción orquestado por IA a un alto nivel.
En este diagrama, las acciones son los componentes básicos descritos anteriormente. Podrían ser acciones invocables de Apex, API de MuleSoft o indicaciones. Algunas acciones fundamentales están disponibles de forma predeterminada y otras serán desarrolladas por los desarrolladores. Esto también crea una oportunidad para un mercado de acciones creado por desarrolladores y socios.
El planificador es el orquestador impulsado por IA. Cuando la solicitud se pasa al tiempo de ejecución de la orquestación, el planificador elige (crea un plan para) qué acciones usar y cómo componerlas para responder mejor a la solicitud del usuario.
La orquestación de IA es un área activa de investigación en Salesforce y en la industria en su conjunto.
Resumen
El uso de modelos existentes a través de API es una forma común de crear aplicaciones impulsadas por IA con LLM. Con este enfoque, es necesario basar el modelo en datos privados o contextuales de la empresa para obtener resultados más relevantes y útiles. En lugar de pedirle al usuario que ingrese una gran cantidad de información básica manualmente, puede crear el mensaje mediante programación llamando a servicios de datos y agregando datos contextuales al mensaje. Prompt Studio es un nuevo creador de Salesforce que facilita la creación de mensajes al permitirle crear plantillas de mensajes en un entorno gráfico y vincular campos de marcador de posición a datos dinámicos. Einstein Trust Layer le permite enviar mensajes a las API de los proveedores de LLM de forma confiable, abordando problemas de privacidad, sesgos y toxicidad de los datos. La orquestación impulsada por la IA es un paradigma emergente que podría cambiar la forma en que interactuamos con los sistemas de IA y creamos aplicaciones.
Sobre el Autor
Christophe Coenraets es vicepresidente senior de Trailblazer Enablement en Salesforce. Es un desarrollador de corazón con más de 25 años de experiencia en la creación de aplicaciones empresariales, habilitando audiencias técnicas y asesorando a organizaciones de TI.
Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
La guía del desarrollador de Salesforce para Dreamforce 2023 | Blog de desarrolladores de Salesforce
¡Llamando a todos los desarrolladores de Salesforce! ¿Estás listo para experimentar la magia de AI + Datos + CRM en Dreamforce 2023? Hemos preparado una experiencia repleta de tres días como ninguna otra, así que prepárate para aprender, conectarte, divertirte y retribuir rodeado de compañeros innovadores en la conferencia de tecnología más grande del mundo.
Sabemos que está contando ansiosamente los días hasta que comience Dreamforce, así que siga leyendo para comenzar a planificar su experiencia Dreamforce perfecta, desde conferencias magistrales hasta sesiones en Developer Track y demostraciones prácticas en acción en Developer Grove.
Vea la última tecnología en la conferencia magistral sobre el futuro del desarrollo
AI + Data + CRM están cambiando rápidamente el futuro de los negocios y los desarrolladores están a la vanguardia. Únase al presidente y director de ingeniería, Srini Tallapragada, y a invitados especiales para aprender todo sobre el futuro del desarrollo y cómo puede aprovechar la IA en su trabajo.
📅 Marque sus calendarios: jueves 14 de septiembre, de 1:30 a 2:20 p. m., hora del Pacífico 🎤 Oradores destacados: Srini Tallapragada, Alba Rivas, Adam White, Kat Holmes, Chris Peterson, Avanthika Ramesh ❗ Añadir a tu agenda
Descubra los aspectos más destacados de la versión para desarrolladores en Developer Preview Live
Eche un primer vistazo a las principales funciones, herramientas e innovaciones para desarrolladores de la versión Winter '24. Vea demostraciones en vivo de interesantes innovaciones de productos y haga preguntas a nuestros expertos en productos. Hay tantas innovaciones nuevas para los desarrolladores en esta versión que ¡no querrás perderte esto!
📅 Marque sus calendarios: jueves 14 de septiembre, de 2:30 a 3:30 p. m., hora del Pacífico 🎤 Oradores destacados: Aditya Naag Topalli, Mohith Shrivastava, Ewald Hofman, Danielle Larregui, Greg Whitworth, Akshata Sawant, Sarah Welker ❗ Añadir a tu agenda
Mejora tus habilidades en la ruta de desarrollador
Developer Track ofrece una combinación de sesiones de teatro de 20 minutos en Developer Theatre y sesiones de trabajo de 40 minutos. Espere asimilar las mejores prácticas, consejos y mucha inspiración. ¡Y hay algo para todos, sin importar los temas que te apasionen! Tenemos sesiones para todos los niveles (principiante, intermedio, avanzado) en todas las funciones y temas: IA generativa, nube de datos, DevOps Center, MuleSoft, Code Builder, Apex, AppExchange, Lightning Web Components, Slack, seguridad, accesibilidad y más.
📍 Lassesiones de calentamientose ubicarán en todo Trailblazer Forest: en Developer Theatre junto a Developer Grove, Redwood Theatre, Einstein Theatre, Data Cloud Theatre y Olympic Theatre.Las sesiones de trabajo de Developer Track se llevarán a cabo en el segundo y tercer piso de Moscone West. Asegúrese de consultar su agenda para conocer la ubicación exacta de las habitaciones.
Para encontrar estas sesiones en elcatálogo de sesiones de Dreamforce, seleccione Función en la navegación izquierda y marque Desarrollador para ver todas las sesiones etiquetadas para desarrolladores.
Algunas sesiones imperdibles para agregar a tu agenda ✏️
Descubra el poder de Einstein GPT para desarrolladores Qué esperar: La IA generativa ha arrasado en el mundo de la tecnología. Conozca las capacidades más recientes de Einstein GPT y cómo los desarrolladores pueden utilizar la tecnología para crear sus propias aplicaciones impulsadas por IA en Salesforce. Oradores destacados: Stephan Chandler-García, Ananya Jha ❗ Añade esta sesión a tu agenda
Comprensión de la nube de datos para desarrolladores de Salesforce Qué esperar: aprenda qué significa Data Cloud para los desarrolladores, cómo se exponen sus artefactos como metadatos de plataforma familiares y cómo ingerir e interactuar con sus datos mediante SQL, Apex, Flows, API y SDK. Oradores destacados: Aditya Naag Topalli, Danielle Larregui ❗ Añade esta sesión a tu agenda
¿Quieres un mejor código? Einstein GPT y Code Analyzer pueden ayudar Qué esperar: Impulse el desarrollo de Salesforce con el dúo dinámico de Einstein GPT para desarrolladores y Code Analyzer. Aprenda cómo optimizar la generación y validación de código directamente desde las experiencias IDE. Oradores destacados: Gordon Bockus, Vivek Chawla ❗ Añade esta sesión a tu agenda
Componentes web Lightning: novedades y novedades Qué esperar: aprenda cómo puede utilizar Lightning Web Components para hacer que el desarrollo en Salesforce sea más fácil y eficiente. Vea las últimas funciones disponibles para LWC y lo que se avecina en la hoja de ruta. Oradores destacados: Alicia Teo, Alice Oh, Leo Balter ❗ Añade esta sesión a tu agenda
Hoja de ruta de Apex: novedades y novedades Qué esperar: Los gerentes de producto de Salesforce profundizarán en las funciones lanzadas recientemente y en el futuro en la hoja de ruta de Apex, incluido Einstein GPT para desarrolladores. Oradores destacados: Daniel Ballinger, Chris Peterson ❗ Añade esta sesión a tu agenda
Aumente la productividad de los desarrolladores con GraphQL e IA generativa Qué esperar: Sumérgete en la nueva API GraphQL, donde las consultas y mutaciones se pueden combinar en una sola solicitud, ganando rendimiento y flexibilidad. Eche un vistazo a cómo redactar consultas con IA generativa. Oradores destacados: Julián Duque, Ben Sklar ❗ Añade esta sesión a tu agenda
Desarrollar componentes web Lightning para dispositivos móviles sin conexión Qué esperar: ¿ Usuarios móviles sin conexión? Aprenda cómo habilitarlos con componentes web Lightning personalizados para mostrar e incluso actualizar registros mientras un dispositivo móvil está desconectado de Internet. Oradora destacada: Angela Le ❗ Añade esta sesión a tu agenda
Gestionar dependencias y conflictos en el Centro DevOps Qué esperar: profundice en cómo los desarrolladores utilizan DevOps Center para gestionar el ciclo de vida del desarrollo de software. Comience con DevOps Center y aprenda a solucionar los problemas más comunes, como la resolución de conflictos. Oradores destacados: Gilson Canario, Francisco Sammartino ❗ Añade esta sesión a tu agenda
Cinco cosas que los desarrolladores de Salesforce deben saber sobre MuleSoft Qué esperar: Únase a esta sesión para conocer los conceptos clave de MuleSoft que necesita saber como desarrollador de Salesforce. Nos centraremos en las mejores prácticas, consejos y trucos, antipatrones y más con ejemplos en vivo. Oradores destacados: Gaurav Kheterpal, Akshata Sawant ❗ Añade esta sesión a tu agenda
Pon a prueba tus habilidades en Developer Grove
Developer Grove, ubicado en Trailhead Forest, es el hogar de los desarrolladores durante Dreamforce yellugar para comenzar su viaje de aprendizaje de tres días.
Nuestra principal atracción este año es una competencia estilo arcade que pone a prueba tus habilidades de ingeniería en IA. ¡Completa tantos desafíos como puedas en el menor tiempo posible para que tu nombre aparezca en la tabla de clasificación y puedas presumir de ello!
Visite la estación de demostración que cubre nuestras aplicaciones de muestra y recetas de código, y descubra cómo puede utilizarlas en su propio trabajo. Cada estación contará con empleados de Salesforce que saben lo que hacen y les encanta ayudar a otros a aprender.
❗Novedad de este año: Estación de consultas 1:1 en Developer Grove. Los desarrolladores de Salesforce pueden registrarse para una consulta individual de 20 minutos con profesionales expertos de Salesforce. Para reservar una consulta individual,visite esta páginay seleccione el tema "Desarrollador de Salesforce". Cuando haya terminado de registrarse, se le enviará una confirmación por correo electrónico y estará disponible en la aplicación Salesforce Events; descárguela ahora enApp StoreoGoogle Play Store.
Otras cosas a tener en cuenta 👀
Conferencia principal de Dreamforce
Únase al director ejecutivo de Salesforce, Marc Benioff, junto con invitados especiales en el discurso principal de Dreamforce para escuchar todo sobre nuestras innovaciones más recientes.
📅 Marque sus calendarios: martes 12 de septiembre, de 10 a. m. a 12 p. m., hora del Pacífico ❗ Añade la keynote a tu agenda
Fiel al foro principal de clientes
Únase al cofundador y director de tecnología Parker Harris en el foro anual de clientes True to the Core. Escuche a los líderes de productos compartir los aspectos más destacados de nuestra hoja de ruta de productos. Si nunca ha asistido, esta es una excelente sesión para que los desarrolladores pregunten y escuchen las respuestas de nuestros gerentes de producto. ¡Una cosa que seguirá siendo “central” en True to the Core es que habrá muchas preguntas!
📅 Marque sus calendarios: jueves 14 de septiembre, de 11:30 a. m. a 12:30 p. m., hora del Pacífico ❗ Añade esta sesión a tu agenda
Conferencia magistral de TI: cree su cliente 360 con IA confiable
Aprenda cómo resolver sus desafíos de TI más difíciles con IA + Datos + CRM. Escuche cómo los pioneros utilizan las últimas innovaciones de plataforma, nube de datos y MuleSoft para crear entornos de TI de próxima generación,con potentes capacidades de IA generativa integradas.
📅 Marque sus calendarios: martes 12 de septiembre, de 2:30 a 3:20 p. m., hora del Pacífico ❗ Añade esta sesión a tu agenda
Celebración pionera de la noche 1
Recuperaremos la diversión la primera noche de Dreamforce. Únase a nosotros en Trailblazer Forest de 5 a 6:30 p. m. el martes 12 de septiembre en Admin Meadow, Developer Grove y Community Cove para actividades sociales, comidas ligeras y bebidas.
Obtenga aún más contenido de Dreamforce 2023 en Salesforce+
¿No puedes asistir a Dreamforce en persona? Durante los tres días, las conferencias magistrales y las sesiones seleccionadas se transmitirán en vivo en Salesforce+. Habrá dos canales y 72 horas de transmisión en vivo. Además de la experiencia en vivo, más de 120 episodios bajo demanda estarán disponibles para verlos después de que finalice Dreamforce en cualquier momento y lugar.
Complete Road to Dreamforce 2023 Trailhead Questantes de las 11:59 p. m. (hora del Pacífico) del 11 de septiembre de 2023 para desbloquear una insignia comunitaria exclusiva y participar para tener la oportunidad de ganar* una de las 25 codiciadas sudaderas con capucha Trailblazer o una de las 50 camisetas Dreamforce.* Se aplican las reglas oficiales . Consulte lapágina Trailhead Questspara obtener todos los detalles.
Descargue la aplicación Salesforce Events enApp StoreoGoogle Play Store para realizar un seguimiento de todo lo que hay en su agenda en un lugar de fácil acceso.
Kaitlin Benz es especialista sénior en marketing de desarrolladores en Salesforce. Lo que más le apasiona es la narración de historias, los podcasts y la comida vegana. Encuéntrala enLinkedIn.
Obtenga las últimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Cierre el ciclo de retroalimentación con el uso de activos de Exchange y las métricas de participación | Blog de desarrolladores de Salesforce
Como desarrollador, desea que su ciclo de desarrollo sea altamente eficiente. Parte de eso implica 1) descubrir y reutilizar fácilmente los activos relevantes con confianza y 2) comprender dónde y cómo se usan (y reutilizan) sus activos, para que pueda tomar decisiones informadas.
Anypoint Exchange, un componente clave de Anypoint Platform, permite a los desarrolladores y administradores crear rápida y fácilmenteredesde aplicaciones y empresas componibles. Se integra a la perfección en el "flujo de trabajo" de los clientes y brinda capacidades paraproducir y consumir activos reutilizables.Los activosson recursos que se pueden crear, descubrir y compartir. Exchange admite varios tipos de recursos reutilizables, incluidos varios tipos de API (REST, GraphQL, etc.), fragmentos de especificaciones de API, recursos personalizados, ejemplos, recursos de integración (conectores, etc.) y recursos de automatización (RPA, etc.).
Un componente de la propuesta de valor central de Exchange es impulsar la eficiencia a través de la reutilización: los activos reutilizables y preconstruidos ayudan a impulsar el viaje del desarrollador. El nuevopanel de compromiso de activoslo ayuda a cuantificar el compromiso y el uso (impulsores clave de la reutilización) por activo, ofreciendo información sobre el rendimiento de sus activos.
Los beneficios clave de esta nueva característica incluyen:
Impulse el crecimiento, el compromiso y la reutilización en todo el catálogo
Acceda a métricas de uso y puntajes de participación para obtener una vista compuesta de cómo se utilizan sus activos
Realice un seguimiento y gestione la adopción de activos con paneles listos para usar
Vea análisis de rendimiento de toda su biblioteca de activos en un solo lugar
Panel de métricas de participación de activos (vista de administrador)
Los usuarios con la función de administrador de Exchange pueden ver las métricas de uso y compromiso de los fragmentos de especificación de API y las API de REST mediante el panel. Las métricas de uso miden lo siguiente:
Número de veces que se descarga un recurso de Exchange
# de importaciones desde API Designer
# de importaciones desde Anypoint Studio
# de dependientes
# de contratos
La puntuación de participación de activos es una métrica compuesta que se puede usar para medir el uso relativo de un activo en Exchange. El tablero muestra métricas de hasta los 50 activos principales durante un período de los últimos 7 días, 30 días o 60 días, clasificados por puntaje de participación. Puede filtrar los activos principales por fragmentos de especificación de API y tipos de API REST y por una o más organizaciones.
El siguiente gráfico muestra el panel de métricas de uso y participación:
Esta función permite a los usuarios con la función de administrador de Exchange tener una visión holística del uso y consumo de activos en su organización, proporcionando información sobre la reutilización de los activos y permitiéndoles impulsar aún más las prácticas eficientes.
Métricas para un activo y una versión específicos
Esta nueva función también le permite ver las métricas de participación de un activo individual y/o una versión específica. Puede hacerlo navegando a la página de detalles del activo de un activo compatible y seleccionandoCompromiso de la versión del activoen la barra lateral de navegación izquierda.
El siguiente gráfico muestra la página de detalles del activo con métricas de uso y participación.
Recopilamos y analizamos una amplia gama de metadatos de activos (incluida la versión y el estado del ciclo de vida, entre otros) y métricas (incluida la contribución de participación, las descargas y las importaciones, entre otros). Consulte ladocumentaciónpara obtener más detalles y definiciones.
Esta vista puede ayudarlo a identificar las versiones de activos que tienen un alto uso general frente a las versiones con poco uso. Esta información puede ayudarlo a comprender mejor el rendimiento y la adherencia de versiones de activos específicos dentro de su organización, lo que lo ayuda a tomar decisiones más informadas cuando se trata de reutilizar y hacer que el proceso de desarrollo sea más eficiente.
Disponibilidad y soporte futuro
Hoy, esta nueva función está disponible para usuarios con la función de administrador de Exchange y propietarios de activos conpermiso de colaborador de Exchange . Además, los dos tipos de activos que se admiten actualmente son 1) API REST y 2) fragmentos de especificaciones de API. En el futuro, nos esforzaremos por admitir una gama más amplia de tipos de activos disponibles en Exchange para brindarle una visión más holística del uso, la participación y la reutilización dentro de su organización.
Conclusión
Esta nueva característica de Anypoint Exchange cierra el ciclo de retroalimentación y proporciona nuevos conocimientos basados en datos sobre la participación y el uso de activos. Esta característica ayudará a los desarrolladores a comprender mejor cómo se utilizan sus activos, para que puedan impulsar mejoras en la documentación, el etiquetado de metadatos y más. Los administradores pueden usar esta información para identificar los principales activos adoptados e impulsar las mejores prácticas en todo el catálogo, al mismo tiempo que comprenden mejor qué tipos de activos son valiosos para los desarrolladores. Finalmente, Exchange planea usar estas métricas para impulsar más mejoras y experiencias de productos. ¡Siga lasnotas de la versiónpara futuras iteraciones de esta característica!
Sobre el Autor
Ria Joshi es Gerente de Producto en MuleSoft enfocada en Anypoint Exchange. En su función, se esfuerza por generar una cultura de producto basada en datos. Fuera del trabajo, Ria es una corredora de larga distancia y una ávida senderista.
Obtenga las últimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Nuevas funciones en Anypoint Partner Manager mejoran la agilidad y la eficiencia de la cadena de suministro | Blog de desarrolladores de Salesforce
Las plataformas de integración B2B juegan un papel vital para ayudar a las organizaciones a lograr la diversificación y expansión de la cadena de suministro. La incorporación más rápida de nuevos socios comerciales y las ricas capacidades de gestión operativa son dos aspectos importantes que los clientes necesitan para construir una cadena de suministro resistente.
Anypoint Partner Manager de MuleSoftes una plataforma de integración B2B de próxima generación y código bajo. Permite a las organizaciones integrar su red de aplicaciones empresariales componibles con sus socios comerciales externos a través de métodos EDI tradicionales, y también a través de API modernas y canales que no son EDI. Anypoint Partner Manager y la plataforma más amplia ofrecen funciones completas que ayudan a los clientes a lograr una verdadera trazabilidad de extremo a extremo.
Novedades de Anypoint Partner Manager
Nos complace anunciar quela versión de julio de 2023 de Anypoint Partner Manager presenta las siguientes innovaciones clave que ayudan a las organizaciones a lograr una incorporación de socios más rápida y una gestión operativa superior de las transacciones comerciales.
Reproducción de transacciones
Soporte para CSV y archivos delimitados
Mejoras en la interoperabilidad de X12 y EDIFACT
Reproducción de transacciones
Dado que las organizaciones comercian con múltiples socios para intercambiar transacciones comerciales sensibles al tiempo, es importante que los usuarios operativos cuenten con herramientas de autoservicio para reprocesar documentos comerciales cuando sea necesario. El procesamiento de transacciones B2B es casi siempre un proceso de varios pasos que involucra la interacción con socios comerciales por un lado y con sistemas back-end dispares por el otro, con las plataformas de integración B2B actuando como una puerta de enlace crítica.
Los usuarios ahora puedenreproducircargas útiles de transmisión con un simple clic en un botón en la interfaz de usuario, o automatizar la activación de acciones de reproducción a través de llamadas a la API de la plataforma. A medida que se reproducen las transmisiones, los usuarios pueden ver el historial de reproducción en el registro de detalles de transmisión original y también ver las instancias de transmisión reproducidas a través de experiencias de búsqueda y navegación sencillas. Los administradores de la plataforma también pueden ver el historial de todas las acciones de los usuarios, incluidas las repeticiones de los registros de auditoría en Gestión de acceso, esencialmente una experiencia completa e integral en la gestión de las necesidades de reproducción de transacciones de una empresa.
CSV/archivos delimitados
Expandir el ecosistema de socios comerciales a través de múltiples geografías requiere que las organizaciones estén abiertas a intercambiar transacciones comerciales en formatos que sus socios puedan admitir. Si bien la mayoría de las organizaciones utilizan ampliamente los dos estándares EDI globales, X12 y EDIFACT, hay empresas que tienen diferentes preferencias y capacidades sobre qué formato pueden admitir. Anypoint Partner Manager ha estado admitiendo formatos XML y JSON además de X12 y EDIFACT durante bastante tiempo.
Con la introducción de la compatibilidad conarchivos CSV/delimitados, los clientes ahora tienen más opciones para incorporar a sus socios comerciales más rápido, con una experiencia de código bajo simplificada y basada en la configuración, a través de una amplia variedad de formatos y protocolos de datos.
Mejoras en la interoperabilidad de X12 y EDIFACT
Además de la reproducción de transacciones y la compatibilidad con archivos CSV/delimitados, esta versión también incluye las siguientes mejoras que mejoran la interoperabilidad general de Anypoint Partner Manager, lo que permite a los clientes integrarse con su ecosistema de socios comerciales externos con confianza.
El primero es una reconciliación de acuse de recibo mejorada para manejar la aceptación parcial y el rechazo con escenarios de error.
El segundo es la capacidad de configurar códigos hexadecimales como caracteres delimitadores X12 y EDIFACT para generar cargas útiles EDI, que coincidan con las especificaciones de los socios comerciales.
Conclusión
Con la introducción de las nuevas funciones en la versión de julio de 2023, Anypoint Partner Manager ahora ofrece más opciones para que las empresas integren su red de aplicaciones empresariales componibles con su ecosistema de socios comerciales externos.
Mire estevideopara obtener más información sobre las nuevas funciones de Anypoint Partner Manager y más.
Recursos
Sobre el Autor
Vijayan Ganapathyes director de gestión de productos en MuleSoft, donde dirige su cartera de productos de integración B2B. Durante su carrera, ha ayudado a organizaciones a diseñar y construir soluciones de integración B2B/EDI a gran escala utilizando varias plataformas de integración. Con años de experiencia en el campo de la logística y la cadena de suministro, Vijayan lidera la estrategia y ejecución de Anypoint Partner Manager y otros productos en el espacio de integración B2B. En su tiempo libre, a Vijayan le gusta pasar tiempo con sus dos hijos y explorar el aire libre. Siga a Vijayan enLinkedIn.
Obtenga las últimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Cargue datos mediante programación con la API de ingesta | Blog de desarrolladores de Salesforce
Salesforce Data Cloud ofrece varios conectores predefinidos para la importación de datos. Estos le permiten conectar otra organización de Salesforce, una instancia de Marketing Cloud, almacenamientos de datos como Amazon S3 o cualquier otra fuente admitida por MuleSoft Salesforce Data Cloud Connector . Para conectarse a un sistema de terceros, puede utilizar la API de ingesta .
La API de ingesta es una interfaz RESTful que facilita la carga de datos mediante programación en Data Cloud. Admite patrones de interacción masiva y de transmisión. El patrón de transmisión usa JSON como su formato, cargando datos en micro lotes a través de la API REST. El patrón masivo, por otro lado, emplea el formato CSV y carga datos usando trabajos.
En esta publicación de blog, analizaremos cómo configurar el conector de la API de ingesta y comenzar a cargar datos mediante programación utilizando los patrones Streaming y Bulk.
Cuándo usar la ingestión Streaming vs Bulk
Ingestión de transmisión
Ingestión a granel
Al actualizar pequeños microlotes de registros casi en tiempo real
Al mover grandes volúmenes de datos en un programa diario, semanal o mensual
Cuando se utilizan sistemas de origen de datos que se basan en arquitecturas de transmisión modernas
Al usar sistemas heredados, donde solo puede exportar datos durante las horas de menor actividad
Al crear eventos de captura de datos modificados
Al usar una nueva organización de Data Cloud que desea rellenar con 30, 60 o más de 90 días de datos
Al consumir datos de webhooks
Para configurar la API de ingesta, deberá seguir cuatro pasos de requisitos previos:
Crear un conector de API de ingesta
Crear e implementar un flujo de datos
Crear una aplicación conectada
Solicitar un token de acceso a la nube de datos
Veamos el proceso de creación y configuración de un conector de ingesta para comenzar a cargar datos en Data Cloud.
Creación de un conector de API de ingesta
Supongamos que tiene acceso a Data Cloud. Para conectar una nueva fuente de API de ingesta mediante el conector de API de ingesta, vaya a Configuración de nube de datos y seleccione API de ingesta .
Aquí encontrará todos los conectores disponibles en su organización. Para crear uno nuevo, haga clic en Conectar y proporcione un nombre. Para nuestra aplicación de muestra, trabajaremos con una empresa de energía solar ficticia. Estamos interesados en recibir eventos de métricas relacionadas con el rendimiento energético de sus paneles solares.
Una vez que se haya creado el conector, necesitaremos decirle a Data Cloud qué tipo de datos estamos esperando. Para esto, necesitaremos cargar un archivo de esquema utilizando la especificación OpenAPI. Este archivo de esquema tiene requisitos específicos, así que asegúrese de consultar la documentación para obtener más información.
A continuación se muestra un ejemplo del archivo de esquema que cargaremos, que representa un solar_panel_event . Los campos clave a tener en cuenta incluyen event_id , que será único para cada evento y luego se asignará en Data Cloud como clave principal. Otro es customer_id , que nos será útil para mapear el evento con un cliente de nuestra organización. Finalmente, date_time representa la hora del evento.
panel_solar_event.yaml
Una vez que carguemos el esquema, podremos obtener una vista previa de sus campos y tipos de datos, y luego guardarlo en nuestro conector.
Ahora que nuestro conector tiene un esquema, podemos decir que está creado. Sin embargo, aún no está listo para comenzar a recibir datos. Necesitamos crear un flujo de datos para este propósito.
Nota: Dado que los esquemas pueden evolucionar con el tiempo, también puede usar la interfaz del conector de la API de ingesta para actualizar el esquema y agregar nuevos campos a su objeto de datos según sea necesario.
Creación e implementación de un flujo de datos
Ya tenemos listo nuestro conector API de ingesta. Ahora es el momento de establecer una conexión para comenzar a importar datos. Para eso, necesitamos crear un flujo de datos . Una vez que el flujo de datos está activo, podemos comenzar a ingerir datos en Data Cloud y almacenarlos como un objeto de Data Lake.
Para crear un nuevo flujo de datos, vaya a su pestaña en la aplicación Data Cloud, haga clic en Nuevo , seleccione Ingestion API y luego haga clic en Siguiente .
Nota: La opción API de ingesta está deshabilitada si no tiene ninguna fuente de ingesta conectada.
A continuación, verá los diferentes objetos que están asociados con su esquema. En nuestro caso, seleccione el objeto solar_panel_event y haga clic en Siguiente .
Al crear un flujo de datos, deberá seleccionar una categoría o tipo de datos en ese flujo de datos. Hay tres categorías: Compromiso , Perfil y Otro .
Compromiso
Un conjunto de datos que representa un compromiso basado en series de tiempo, como un evento, interacción con el cliente, interacción web, etc.
Cuando se selecciona, el menú desplegable Campo de hora del evento aparece en la interfaz de usuario.
Perfil
Un conjunto de datos que representa:
– Una lista de consumidores con identificadores, como identificaciones de consumidores, direcciones de correo electrónico o números de teléfono
– Una lista de empresas o cuentas con ID de cuenta
– Una lista de empleados o cualquier otra población por la que desee segmentar o utilizar como población inicial del segmento
Otro
Un conjunto de datos que no es un compromiso o un perfil, como información de productos o tiendas.
Para nuestro ejemplo, dado que estamos planeando recibir eventos, seleccionaremos Compromiso . Mapearemos el event_id comola clave principal y la date_time como el campo de hora del evento.
Ahora que nuestros datos están configurados, es hora de implementarlos. Después de revisar los flujos de datos que se van a crear, hagamos clic en Implementar para activarlos.
Ahora, echemos un vistazo a la página de detalles del flujo de datos. Aquí podemos ver el objeto Data Lake que se ha creado en Data Cloud. Puede identificar un objeto de Data Lake por su sufijo __dll . Desde esta misma interfaz, puede comenzar a asignar sus datos a los objetos de su organización para crear objetos de modelo de datos (parte del proceso de armonización de Data Cloud). Sin embargo, no cubriremos ese tema en esta publicación de blog, pero tenemos un excelente video con Danielle Larregui que le muestra cómo hacerlo.
Nuestro conector API de ingesta está listo para comenzar a recibir datos de sistemas de terceros. Para confirmar, regresemos a la interfaz de configuración de la API de ingesta, donde puede ver que el estado del conector es En uso .
Creación de una aplicación conectada
La API de ingesta admite todos los flujos de OAuth 2.0 admitidos por otras API REST de Salesforce. Para cargar datos mediante la API de ingesta, su aplicación conectada requiere los siguientes ámbitos:
Ámbitos de OAuth requeridos
cdp_ingest_api
Acceda y administre sus datos de API de ingesta de nube de datos
API
Accede y administra tus datos
refresco_token, acceso_sin conexión
Realizar solicitudes en su nombre en cualquier momento
Además, nuestra aplicación conectada requerirá un certificado digital. Para crear uno, puede ejecutar el siguiente comando usando el comando openssl :
Este comando creará dos archivos, salesforce.key , que es la clave privada, y salesforce.crt , que es la clave pública.
Nota : si no tiene instalado el comando openssl , puede instalarlo desde el sitio web de OpenSSL .
Solicitud de un token de acceso a la nube de datos
Para este ejemplo, usaremos el flujo de soporte JWT de OAuth 2.0 . Primero, necesitaremos crear un JWT (JSON Web Token) para solicitar un token de acceso.
Para crear un JWT, configurará el encabezado para usar el algoritmo RSA256 .
Encabezado JWT
Luego, configure las siguientes notificaciones, teniendo en cuenta algunas notificaciones importantes:
iss: la clave de consumidor de OAuth/ID de cliente de su aplicación conectada
sub: el nombre de usuario de su organización de Data Cloud
exp: el tiempo de vencimiento del token, expresado como una marca de tiempo de época
reclamos JWT
Nota : La época de Unix (o la hora de Unix o la hora POSIX o la marca de tiempo de Unix) es la cantidad de segundos que han transcurrido desde el 1 de enero de 1970 (medianoche UTC/GMT).
A continuación, deberá utilizar el algoritmo JWT para obtener el token completo y verificado.
Pero seamos honestos, no queremos crear un JWT manualmente. Para esto, utilizaremos el sitio web JWT.io para simplificar el proceso. Asegúrese de que el mensaje Firma verificada aparezca a continuación, lo que indica que nuestro JWT es válido.
O puede crearlo programáticamente usando el lenguaje de programación de su elección. Más adelante en este artículo, compartiré un práctico script de Node.js para generar el token de acceso a la nube de datos.
Antes de que podamos autenticarnos usando el JWT que generamos, debemos aprobar este consumidor. Puede hacerlo abriendo la siguiente URL en su navegador.
<dx-code-block title language code-block="https://login.salesforce.com/services/oauth2/authorize?response_type=token&client_id=&redirect_uri=»>
Y luego, inicie sesión y permita el acceso:
Ahora que hemos aprobado nuestro JWT, necesitamos autenticarnos. Este es un proceso de dos pasos. Primero, necesitamos obtener un token de acceso usando el JWT. Para hacer esto, realicemos una solicitud POST HTTP con la siguiente información.
<dx-code-block title language code-block="POST https://login.salesforce.com/services/oauth2/token
Content-Type : x-www-form-urlencoded
grant_type=urn:ietf:params:oauth:grant-type:jwt-bearer
&assertion=»>
Nota: asegúrese de reemplazar <JWT> con el token que creamos anteriormente.
Esta solicitud nos dará un token de acceso central y la URL de la instancia de Data Cloud, utilizando nuestra aplicación conectada. Como se muestra en el alcance ,se nos otorgan los alcances cdp_ingest_api y api .
A continuación, debemos cambiar el token de acceso principal por un token de nube de datos. Para hacer eso, realicemos la siguiente solicitud POST.
<dx-code-block title language code-block="POST /services/a360/token Content-Type : x-www-form-urlencoded grant_type=urn:salesforce:grant-type:external:cdp &subject_token= &subject_token_type=urn:ietf:params:oauth:token-type:access_token»>
Ahora, estamos autenticados. El token de acceso a la nube de datos resultante es lo que usaremos para realizar solicitudes a la API de ingesta.
Para simplificar el proceso, he creado un script Node.js. Crea el JWT y realiza la autenticación en dos pasos. Para usarlo, necesitará la clave privada que creó anteriormente, así como un archivo de configuración similar al siguiente.
config.js
Además, instale la dependencia jsonwebtoken desde npm ejecutando:
El método generateAccessToken devolverá el objeto de autenticación de Data Cloud, incluido el access_token y la instance_url necesarios para comenzar a ingerir datos en Data Cloud.
Ingesta de datos
Tenemos toda la información necesaria para comenzar a ingerir datos en la nube de datos. Esto se puede lograr utilizando los patrones Streaming o Bulk.
Transmisión
Para comenzar a transmitir datos en el conector de Ingestión de nube de datos, primero obtenga el nombre del conector y el nombre del objeto de la configuración del conector de la API de Ingestión. Para hacer esto, puede realizar una solicitud POST como la siguiente.
Nota : asegúrese de reemplazar <token de acceso a la nube de datos> y <url de instancia> con los valores respectivos que obtuvo del proceso de autenticación.
Si todo va bien, recibirás la siguiente respuesta:
Esto indica que nuestros datos han sido aceptados con éxito.
Nota : también puede validar los datos con el esquema antes de enviarlos agregando /actions/test al punto final de la API.
A granel
La ingestión masiva implica varios pasos, lo que agrega un nivel de complejidad al proceso:
Crear un trabajo: este paso implica crear un trabajo para especificar el tipo de objeto de los datos que se procesan y la operación que se realizará, que puede ser upsert o delete.
Cargar los datos en CSV: Después de crear el trabajo, el siguiente paso es cargar los datos en formato CSV. El archivo CSV debe contener los datos que se procesarán, con cada fila representando un registro y las columnas que contienen los valores de campo.
Indicar la preparación de los datos: una vez que se cargan los datos, deberá indicar que los datos están listos para ser procesados.
Cerrar o cancelar el trabajo: después de procesar los datos, puede cerrar el trabajo para marcarlo como completado o cancelar el trabajo si es necesario.
Para obtener más información sobre cómo usar los puntos de conexión masivos, puede consultar la documentación oficial .
Puede consultar los datos entrantes utilizando el Explorador de datos en Data Cloud. Allí, seleccionará el objeto Data Lake correspondiente al conector de ingesta que creó anteriormente.
Si desea probarlo usted mismo, siempre puede utilizar nuestra colección Postman de desarrolladores de Salesforce, que incluye las API de Salesforce Data Cloud .
Conclusión
Ahora, está listo para comenzar a cargar datos mediante programación en Data Cloud mediante la API de ingesta. Siguiendo los pasos anteriores, puede conectarse sin problemas a varias fuentes de datos e importar datos en tiempo real o en masa, y comenzar a aprovechar el poder y la magia de Salesforce Data Cloud.
Julián Duque es un defensor principal de desarrolladores en Salesforce, donde se enfoca en Node.js, JavaScript y desarrollo backend. Le apasiona la educación y el intercambio de conocimientos y ha estado involucrado en la organización de comunidades tecnológicas y de desarrolladores desde 2001.
Sígalo @julianduque en Threads, @julian_duque en Twitter, @julianduque.co en Bluesky social o LinkedIn .
Aditya Naag Topalli es una defensora de desarrolladores líder certificada 14 veces en Salesforce. Capacita e inspira a los desarrolladores dentro y fuera del ecosistema de Salesforce a través de sus videos, seminarios web, publicaciones de blog y contribuciones de código abierto, y también habla con frecuencia en conferencias y eventos en todo el mundo. Sígalo en Twitter o LinkedIn y vea sus contribuciones en GitHub .
Obtenga las últimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Anypoint MQ ya está disponible en MuleSoft Government Cloud | Blog de desarrolladores de Salesforce
Anypoint MQes un servicio de mensajería en la nube empresarial y multiusuario que proporciona una solución de mensajería asincrónica avanzada para aplicaciones.
Los clientes utilizan Anypoint MQ en los entornos MuleSoft US Cloud y EU Cloud para ejecutar aplicaciones de misión crítica, como el procesamiento de pedidos, la gestión de atención al cliente y la gestión de quioscos de aerolíneas. Un proveedor de comercio electrónico que recibe pedidos a través de varios canales, como web, dispositivos móviles y socios, puede procesar los pedidos en el pedido recibido y, al mismo tiempo, escalar a varias unidades de procesamiento.
Nuestros clientes del sector público han solicitado un servicio de mensajería basado en la nube que pueda integrar tanto sus aplicaciones locales como las basadas en la nube, lo que les permite ofrecer servicios automatizados para los ciudadanos. Con el lanzamiento de Anypoint MQ en MuleSoft Government Cloud, nos complace ayudar a nuestros clientes a lograr su visión.
Funciones de Anypoint MQ
Anypoint MQ admite una amplia gama de casos de uso de mensajería, como patrones de mensajería empresarial, comunicaciones asincrónicas entre microservicios e IoT. Anypoint MQ también proporciona una API REST para publicar o consumir mensajes utilizando marcos, como scripts bash de Node.js, Java, Go y DevOps.
Anypoint MQ incluye las siguientes funciones:
Colas e intercambios de mensajes
Las colas de mensajes proporcionan almacenamiento temporal que permite que las aplicaciones se comuniquen de manera escalable y confiable. Los editores pueden publicar mensajes en las colas y los suscriptores pueden recibir mensajes de las colas. Los intercambios de mensajes le permiten distribuir un solo mensaje a múltiples consumidores. Todas las colas y los intercambios de mensajes están cifrados de forma predeterminada.
Colas de retraso
Las colas de retraso le permiten posponer la entrega de nuevos mensajes a una cola durante un período específico. Los consumidores no pueden ver los mensajes enviados a una cola de demora durante el período de demora. El retraso máximo de una cola es de 15 minutos.
Consola de administración
Con la consola de administración, puede monitorear las estadísticas de las colas, purgarlas y ver cuántos mensajes están en tránsito.
Conector MQ de cualquier punto
Anypoint Connector para Anypoint MQ(Anypoint MQ Connector) proporciona mensajes de publicación y suscripción a aplicaciones Mule. Tenga en cuenta que solo Anypoint MQ Connector 4.x y versiones posteriores son compatibles con el entorno MuleSoft Government Cloud.
API REST
Puede usar laAPI RESTpara comunicarse fácilmente con aplicaciones que no son Mule.
Entornos y control de acceso basado en roles
Anypoint MQ está completamente integrado con Anypoint Access Management, lo que le permite especificar diferentes entornos para sus colas, quién puede acceder a cada entorno y qué pueden hacer dentro de cada entorno.
Grandes cargas útiles
Anypoint MQ admite cargas útiles de hasta 10 MB.
Recuperación de desastres
Los servicios de Anypoint MQ se implementan en varias zonas de disponibilidad (AZ) dentro de una región para proporcionar alta disponibilidad (HA). Si el servicio en una zona de disponibilidad deja de funcionar, el servicio Anypoint MQ funciona normalmente en esa región. Si todas las zonas de disponibilidad se desactivan en una región, el servicio Anypoint MQ no estará disponible en esa región hasta que al menos una de las zonas de disponibilidad vuelva a funcionar. Debido a que la solución de almacenamiento para Anypoint MQ es duradera, se retienen los mensajes que ya estaban en el sistema Anypoint MQ antes de que se interrumpiera el servicio.
Conclusión
¡Esperamos que esté tan entusiasmado como nosotroscon estas características! Para comenzar a acceder a Anypoint MQ en Government Cloud, visitenuestro tutorial.
Más recursos
Sobre el Autor
Gouthami Kondakindies un ingeniero líder en Salesforce que trabaja en la creación de servicios que potencian la plataforma MuleSoft Anypoint.
Obtenga las últimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a través de Slack o RSS.
Última actualización el 29 de junio de 2023 por Rakesh Gupta
Gran idea o pregunta duradera:
¿Cómo puede aprovechar la API de zona horaria de Google para actualizar automáticamente la información de zona horaria de un cliente potencial en función de sus coordenadas geográficas?
Objetivos:
Después de leer este blog, podrá:
Jestilla Zetkin se desempeña actualmente como arquitecta de Salesforce en Gurukul On Cloud (GoC). El Director Comercial le ha confiado a Jestilla un desafío único. El objetivo es asegurarse de que, en el momento de la creación, los prospectos de Salesforce (creados a través de Web-to-lead) reciban los detalles exactos de la zona horaria, que se determinan en función de sus respectivas coordenadas geográficas.
El caso de uso comercial requiere que usemos la API de zona horaria de Google para actualizar automáticamente cuatro campos específicos en los clientes potenciales:
dstOffset (la compensación del horario de verano en segundos)
rawOffset (el desplazamiento de la hora universal coordinada para la zona horaria de la ubicación dada)
timeZoneId (una cadena que identifica de forma única la zona horaria)
y timeZoneName (el nombre largo de la zona horaria)
En caso de una respuesta fallida, instituya una acción de contingencia para crear una tarea para el propietario designado del cliente potencial.
¿Qué es la API de zona horaria de Google?
Hay muchas posibilidades de que su base de clientes esté repartida en varias zonas horarias. Este factor puede influir en gran medida en sus interacciones con ellos, especialmente al programar llamadas, reuniones o enviar mensajes automáticos. La plataforma de Salesforce ofrece un entorno altamente adaptable para almacenar y administrar datos de clientes, pero de forma predeterminada, no proporciona una forma de registrar automáticamente la zona horaria del cliente potencial en función de sus coordenadas geográficas.
La API de zona horaria de Google es un servicio ofrecido por Google como parte de su plataforma Google Maps. La API proporciona datos de zona horaria para cualquier ubicación en todo el mundo en función de las coordenadas de latitud y longitud. Este servicio puede ser particularmente útil para los desarrolladores que necesitan ajustar la comunicación de acuerdo con la ubicación geográfica de un cliente potencial o contacto o para empresas que operan en diferentes zonas horarias.
La API de zona horaria proporciona la siguiente información:
El ID de la zona horaria , según lo define la base de datos de zonas horarias de la IANA (por ejemplo, America/New_York ).
El nombre de la zona horaria (por ejemplo, hora de verano del este ).
La diferencia horaria con respecto a la hora universal coordinada (UTC) sin tener en cuenta el horario de verano (rawOffset).
El desfase horario debido al horario de verano (dstOffset).
Tenga en cuenta que la API de zona horaria de Google está sujeta a cargos, por lo que es importante comprender las implicaciones de costos antes de implementarla.
¿ Cómofunciona la API de zona horaria de Google?
La API de zona horaria de Google funciona tomando coordenadas de latitud y longitud y devolviendo datos de zona horaria en formato JSON. Aquí hay un ejemplo básico de cómo usarlo.
La siguiente solicitud HTTP GET obtiene información de zona horaria para una ubicación en la latitud 40.712776 y longitud -74.005974 (ciudad de Nueva York), y asume que está realizando la solicitud en una determinada marca de tiempo (marca de tiempo UNIX).
En la URL de solicitud anterior, reemplace YOUR_API_KEY con su clave API real.
Aquí hay una respuesta de muestra en formato JSON que la API podría devolver:
{ "dstOffset": 3600, "compensación sin procesar": -18000, "estado": "OK", "timeZoneId": "América/Nueva_York", "timeZoneName" : "Hora de verano del Este"
}
La respuesta incluye la siguiente información:
dstOffset : La compensación del horario de verano en segundos. Será cero si la zona horaria no está en el horario de verano durante la marca de tiempo especificada.
rawOffset : el desplazamiento de UTC (sin contar el horario de verano) en segundos.
estado : una cadena que indica el estado de la solicitud. “OK” significa que la solicitud fue exitosa.
timeZoneId : una cadena que contiene el ID "tz" de la zona horaria (por ejemplo, "América/Nueva_York").
timeZoneName : una cadena que contiene el nombre de forma larga de la zona horaria (por ejemplo, "hora de verano del este").
Recuerde, en la URL de solicitud, se requiere el parámetro de marca de tiempo y el parámetro de ubicación espera coordenadas de latitud y longitud.
Marca de tiempo : el tiempo deseado en segundos desde la medianoche del 1 de enero de 1970 UTC. La API de zona horaria utiliza la marca de tiempo para determinar si se debe aplicar o no el horario de verano, según la zona horaria de la ubicación.
Ubicación : una tupla de latitud, longitud separada por comas, ubicación = 40.712776, -74.005974, que representa la ubicación para buscar.
Además, no olvide incluir su clave API.
Beneficios de usar la API de zona horaria de Google
La API de zona horaria de Google ofrece una serie de beneficios significativos, especialmente para desarrolladores y empresas que necesitan operar en diferentes zonas horarias. Estos son algunos de los beneficios clave:
Precisión : la API de zona horaria de Google proporciona datos de zona horaria precisos para cualquier ubicación en todo el mundo. Tiene en cuenta tanto la zona horaria 'sin procesar' como el horario de verano, lo que garantiza que siempre tenga la hora local correcta.
Facilidad de uso : la API es fácil de usar y solo requiere la latitud y la longitud como entradas. Devuelve datos en un formato JSON estructurado, que es fácil de analizar y usar en varias aplicaciones.
Cobertura global : la API proporciona datos de zona horaria para ubicaciones en todo el mundo, lo que la hace útil para empresas globales y aplicaciones con bases de usuarios internacionales.
Confiabilidad : como servicio proporcionado por Google, es altamente confiable, lo que garantiza que tenga acceso constante a los datos de la zona horaria cuando los necesite.
Integración : se puede integrar en una variedad de aplicaciones y plataformas, incluidas aplicaciones móviles, servicios web y plataformas de CRM como Salesforce. Esto permite funcionalidades como la programación de comunicaciones en diferentes franjas horarias, etc.
Información actualizada : Google actualiza continuamente sus bases de datos, lo que garantiza que los datos devueltos por la API de zona horaria, como los cambios de horario de verano, estén siempre actualizados.
Al aprovechar estos beneficios, las empresas pueden mejorar la experiencia del cliente, aumentar la eficiencia operativa y garantizar un registro de datos preciso, entre otras ventajas.
Antes de comenzar a usar la API de zona horaria, necesita un proyecto con una cuenta de facturación y la API de zona horaria habilitada. Aquí hay una guía paso a paso para configurar su proyecto de Google Cloud y habilitar la API de zona horaria:
Si ha creado un proyecto anteriormente, puede seleccionarlo de la lista desplegable en la parte superior. De lo contrario, haga clic en Nuevo proyecto en la parte superior derecha.
Asigne un nombre a su proyecto y, opcionalmente, también puede editar el ID del proyecto.
Haga clic en Crear para crear el proyecto.
Paso 2: configurar una cuenta de facturación
Debe vincular una cuenta de facturación a su proyecto para usar la API de zona horaria de Google. Así es cómo:
En Google Cloud Console, abra el menú del lado izquierdo de la consola y haga clic en Facturación .
Si tiene una o más cuentas de facturación, elija una cuenta y asóciela con su proyecto. De lo contrario, haga clic en Crear cuenta , complete el formulario para crear una nueva cuenta de facturación y luego asóciela con su proyecto.
Paso 3: habilite la API de zona horaria
Una vez que haya configurado su proyecto y su cuenta de facturación, puede habilitar la API de zona horaria.
En Google Cloud Console, abra el menú del lado izquierdo de la consola y vaya a API y servicios | biblioteca
En la biblioteca de API, busque API de zona horaria y selecciónela.
En la página de la API de zona horaria, haga clic en Habilitar .
Paso 4: Genere su clave API
Finalmente, necesita una clave de API para autenticar sus solicitudes en la API de zona horaria.
En Google Cloud Console, abra el menú del lado izquierdo de la consola y vaya aAPI y servicios | Cartas credenciales.
Haga clic en el botón + CREAR CREDENCIALES en la parte superior y seleccione Clave API .
Su nueva clave de API se creará y se mostrará. Cópielo y guárdelo de forma segura. Necesitará esta clave para realizar solicitudes a la API de zona horaria.
Ahora, su proyecto de Google Cloud está todo configurado y puede comenzar a usar la API de zona horaria de Google.
👉 Si bien la API de zona horaria es compatible con OAuth 2.0 y la cuenta de servicio para la autenticación, esta guía se enfoca en el método de clave de API más simple por razones de brevedad. Si necesita un método de autenticación más seguro o complejo, consulte la documentación de autenticación oficial de Google.
Enfoque de Campeón de Automatización (I-do):
Si bien esto se puede resolver utilizando varias herramientas de automatización como Apex Trigger y otras, utilizaremos Salesforce Flow y la función de flujo HTTP Callout (GET) recientemente introducida .
HTTP Callout extrae o envía datos entre la base de datos de Salesforce y un sistema externo a través de Flow Builder sin usar código. Puede configurar integraciones directas según sea necesario sin tener que trabajar con un desarrollador o llamar a una herramienta de middleware, como Mulesoft. Después de configurar la acción de llamada HTTP en un flujo, Flow Builder genera automáticamente un registro de servicio externo , una acción invocable y una clase de Apex que puede usar para crear un recurso definido por Apex para flujos. A continuación, puede utilizar la salida de datos de la solicitud de la API como entrada en Flow Builder y en Salesforce.
Puede usar HTTP Callout para conectar un flujo a una variedad de API.
Obtener información de direcciones usando una API de mapa
Obtén las condiciones meteorológicas con una API de servicios meteorológicos
Genere el código de barras con una API de servicio de código de barras
Obtenga información de autorización de pago con una API de procesamiento de pagos
y mucho más
Antes de discutir la solución, permítame mostrarle un diagrama del proceso a un alto nivel. Dedique unos minutos a revisar el siguiente diagrama de flujo para comprenderlo.
Comencemos a construir este proceso de automatización.
Práctica guiada (nosotros hacemos):
Hay 3 pasos para resolver el requisito empresarial de Jestilla mediante Record-Triggered After-SaveFlow . Debemos:
Cree campos personalizados en el cliente potencial para almacenar la respuesta
Crear una credencial con nombre
Flujo de fuerza de ventas
Definir propiedades de flujo para el flujo desencadenado por registro
Agregue una fórmula para calcular la marca de tiempo
Configurar una llamada HTTP GET para la API de zona horaria
Agregue un elemento de decisión para verificar el código de respuesta
Agregue un elemento Actualizar registros para actualizar el prospecto
Agregue un elemento Crear registros para crear una tarea para que el propietario del cliente potencial maneje la respuesta de error
Paso 1: Cree campos personalizados en el objeto principal para almacenar la respuesta
En este paso, hemos establecido campos personalizados dentro del objeto principal. Estos servirán como repositorios para los datos de respuesta de la API de zona horaria de Google.
Etiqueta de campo
Nombre de API de campo
Tipo de datos
dstOffset
dstOffset __c
Número (18,0)
rawOffset
rawOffset__c
Número (18,0)
Posición actual
Posición_actual__c
Geolocalización
Identificación de zona horaria
Time_Zone_Id__c
Texto (255)
Nombre de zona horaria
Nombre_de_la_zona_horaria__c
Texto (255)
Paso 2: crear una credencial con nombre
Haga clic en Configuración .
En el cuadro Búsqueda rápida, ingrese Credenciales con nombre y luego seleccione Credenciales con nombre .
Haga clic en Nuevo legado .
Rellene la página con la URL y los parámetros de autenticación del extremo de la llamada.
Haga clic en Guardar .
Paso 3.1: Definir propiedades de flujo
Haga clic en Configuración .
En el cuadro Búsqueda rápida, escriba Flujos .
Seleccione Flujos , luego haga clic en Nuevo flujo .
Seleccione la opción Flujo activado por registro , haga clic en Crear
Objeto: Plomo
Activar el flujo cuando: se crea un registro
Establecer condiciones de entrada: se cumplen todas las condiciones (Y)
Fila 1:
Campo : Posición_Actual__Latitud__s
Operador : es nulo
Valor : {!$ConstanteGlobal.Falso}
Haga clic en + Agregar condición
Fila 2:
Campo : Posición_Actual__Longitud__s
Operador : es nulo
Valor : {!$ConstanteGlobal.Falso}
Optimizar el flujo para:acción y registros relacionados
Elija la opción para incluir una ruta de ejecución asíncrona para acceder a un sistema externo después de que la transacción original para el registro de activación se confirme con éxito .
Haga clic en Listo.
Paso 3.2: fórmula para calcular la marca de tiempo
En Caja de herramientas , seleccione Administrador y luego haga clic en Nuevo recurso para calcular los segundos desde la época de Unix (1 de enero de 1970, 00:00:00).
Paso 3.3: configurar una acción de llamada HTTP GET
HTTP Callout lo guía a través de la introducción de los detalles sobre el servicio HTTP basado en web o el punto final de la API REST al que se está conectando. Después de completar la configuración, invoca la acción en un flujo.
En el nodo Ejecutar asincrónicamente , seleccione Acción .
Haga clic en +Crear llamada HTTP .
Configure el servicio externo que conecta Salesforce con la API basada en HTTP.
Introduzca un Nombre para el servicio externo.
Seleccione la credencial con nombre que creó en el paso 2 .
Haga clic en Siguiente .
El siguiente paso es configurar la acción invocable que puede usar en Flow Builder o en Salesforce.
Para Etiqueta , ingrese la acción que realiza la llamada.
Método : OBTENER
Agregue el extremo de la URL para la solicitud.
Ruta URL : /maps/api/timezone/json
Agregue claves de parámetros de consulta si la API a la que está llamando las tiene. Cuando usa esta acción en un flujo, ingresa valores para las claves definidas.
Haga clic en Agregar clave
Clave : ubicación
Tipo de datos : cadena
Requerido : Verdadero
Haga clic en Agregar clave
Clave : marca de tiempo
Tipo de datos : entero
Requerido : Verdadero
Haga clic en Agregar clave
Clave: clave
Tipo de datos : cadena
Requerido : Verdadero
Proporcione un cuerpo de respuesta de API de muestra. Salesforce genera una estructura de datos a partir de la respuesta de muestra.
Vaya a la secciónProporcione una respuesta de muestra.
Haga clic en Nuevo .
Pegue una respuesta JSON de muestra .
{ "timeZoneName": "cadena de muestra", "compensación sin procesar": 1, "timeZoneId": "cadena de muestra", "errorMessage": "cadena de muestra", "dstOffset": 1, "estado": "cadena de muestra"
}
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Aumente el compromiso de la API con Anypoint API Experience Hub | Blog de desarrolladores de Salesforce
¿Alguna vez trabajó en un proyecto el 90% del camino, solo para descubrir que alguien más ya lo había hecho? El uso de API es una forma común de integrar varios sistemas y crear aplicaciones modernas. Las API sonbloques de construcción componiblesqueayudan a brindar servicios digitales más rápido. Pero, la realidad es que las API creadas dentro de una organización a menudo carecen de visibilidad y documentación relevante para promover su reutilización por parte de otros equipos. ¿Qué sucede si puede tener una única fuente de verdad que le permita encontrar, ver e interactuar con las API?
Nos complace anunciar el lanzamiento deAnypoint API Experience Hub, la solución de portal de API personalizable de MuleSoft que ayuda a las organizaciones a administrar mejor su cartera de API y maximizar sus inversiones en API. En esta publicación de blog, profundizaremos en las funciones y los beneficios de la nueva solución para desarrolladores y organizaciones.
¿Qué es un portal API?
Unportal de APIes una interfaz integral queayuda a los proveedores de API a exponer y publicitar sus API, educar a las comunidades de desarrolladores sobre ellas, compartir documentación y proporcionar acceso de autoservicio a los consumidores de API.Algunos portales de API tienen capacidades adicionales, como un servicio de simulación, que permite a los desarrolladores probar una API, ver respuestas de ejemplo y analizar si la API cumple con sus requisitos, lo que ahorra tiempo general al desarrollador. Los portales de API se pueden crear tanto para desarrolladores internos como externos, lo que brinda oportunidades para aumentar el valor comercial de sus API.
En el backend, un buen portal de API también requiere administración de usuarios y API, seguridad integrada y la capacidad de realizar cambios rápidamente en el portal cuando sea necesario. Con todos estos factores en mente, MuleSoft ha creado una solución que permite a las organizaciones crear portales de API de marca que aumentan la visibilidad de la API y la participación de los desarrolladores.
Centro de experiencia de la API Anypoint
Hoy, MuleSoft lanzóAnypoint API Experience Hub, una nueva solución que permite a las organizaciones crear portales para desarrolladorespara sus productos API. Con API Experience Hub, los gerentes de productos de API pueden crear portales de desarrolladores personalizados en cuestión de minutos utilizando una plantilla lista para usar que los ayuda a producir, publicar e interactuar con las API creadas en cualquier tecnología o plataforma.
Con API Experience Hub, no necesita experiencia en desarrollo web para crear un portal de API, lo que le ahorra semanas de creación y resolución de problemas de un sitio web desde cero. Se le guiará a lo largo del proceso sin necesidad de alternar entre la documentación y las páginas de configuración del portal. Puede personalizar la marca y los colores de su organización con clics, lo que le permite crear su portal API en cuestión de minutos.
¿Quiere hacer cambios en la plantilla base? Puede personalizar aún más a través de Salesforce Experience Builder y arrastrar y soltar varios componentes. Aprovechando las capacidades de Experience Cloud, incluso puede desarrollar y agregarcomponentes web de iluminación personalizados para mejorar aún más la experiencia del usuario.
Descubra y reutilice las API fácilmente
Dado que API Experience Hub es parte de Anypoint Platform, cualquier API dentro de su organización que esté catalogada enAnypoint Exchangepuede estar disponible en su portal de API. Anypoint Exchange es un mercado interno para su organización donde puede compartir especificaciones de API, fragmentos, conectores, plantillas de integración y más. Sin embargo, con API Experience Hub, los desarrolladores pueden seleccionar y compartir las API más consumibles para consumo interno y externo. Además, Experience Hub viene con capacidades de búsqueda integradas que le permitirán encontrar API específicas rápida y fácilmente para su reutilización.
También hay una página de detalles de API incorporada que le brinda información sobre cada API y le permite descargar o solicitar acceso a las API.
Ahorre tiempo en la documentación
Entonces, quizás se pregunte, ¿cómo funciona la documentación? Cuando su especificación de API esté lista para compartirse en el portal de API, ¡no necesitará documentar todo desde cero! Con capacidades de documentación autogenerativa, Experience Hub completa la documentación y los ejemplos según la especificación de su API. Esto te beneficia de dos maneras enormes:
Ahorre tiempo al crear la documentación de especificación de su API. Por supuesto, puede agregar documentación personalizada o agregar más contexto, pero Experience Hub hará la mayor parte del trabajo por usted.
Cuando busque API para incorporar a su proyecto, puede ir al portal de API sabiendo que hay documentación y ejemplos disponibles.
Por último, Experience Hub viene con una función Pruébelo que le permite realizar llamadas simuladas a una API para averiguar cómo sería una respuesta de ejemplo.
Colaborar con otros desarrolladores
Como se mencionó anteriormente, Anypoint API Experience Hub se basa enSalesforce Experience Cloud, un sistema de publicación web de clase empresarial. Esto significa que cuando crea un portal de API a través de Experience Hub, puede aprovechar numerosas capacidades listas para usar para comunidades, foros y soporte. Para obtener más información sobre Experience Cloud,consulte esta ruta.
El portal de API personalizado ayuda a mejorar el compromiso con las API al permitir que los desarrolladores internos y externos colaboren de manera efectiva para mejorar una API, todo dentro de una única plataforma unificada sin silos de conocimiento.
Conclusión
Con Anypoint API Experience Hub, puede crear un portal de API rápidamente, descubrir y reutilizar API, ahorrar tiempo en la documentación y colaborar fácilmente con otros desarrolladores. Su organización puede poner en funcionamiento un portal API en cuestión de minutos a través de un proceso de configuración simple y una plantilla de portal.
Sumérjase aún más en Anypoint API Experience Hub viendo nuestro seminario web,Cree ecosistemas de API más rápido en la plataforma Anypoint de MuleSoft. En este seminario web, aprenderá cómo el nuevo Anypoint API Experience Hub, creado en Salesforce Experience Cloud, le permite crear rápidamente experiencias de API atractivas utilizando las API catalogadas en Anypoint Exchange.
Sobre el Autor
Sue Siaoes directora técnica de marketing de productos en Salesforce. Es una creadora de contenido que da vida a los productos a través de demostraciones técnicas. Fuera del horario laboral, es mentora de jóvenes en el Área de la Bahía de San Francisco y practica boulder.
Obtenga las últimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Presentamos las mejoras de la versión beta abierta de Anypoint Code Builder | Blog de desarrolladores de Salesforce
¡Nos complace anunciar el lanzamiento en junio de la versión beta abierta de Anypoint Code Builder! Anypoint Code Builder es el IDE (Entorno de desarrollo integrado) de próxima generación de MuleSoft, para que los desarrolladores diseñen, desarrollen e implementen API e integraciones. Desde su lanzamiento Open Beta en febrero de 2023, el equipo ha estado agregando mejoras regularmente en una cadencia bimensual. Mientras que ellanzamiento de abrilse centró en capacidades de IU adicionales, el lanzamiento de junio se centra en una mayor accesibilidad para los usuarios y la flexibilidad en la forma en que los usuarios pueden diseñar e implementar sus API.
Disponibilidad de Open Beta en el plano de control de la UE
Desde su lanzamiento, la versión beta abierta de Anypoint Code Builder solo ha estado disponible en el plano de control de EE. UU. Nos complace decir que esta restricción ya no existe. ¡La versión beta abierta de Anypoint Code Builder ahora está disponible para todos los usuarios en el plano de control de la UE! Esto significa que los usuarios de la UE ya no necesitarán crear nuevas cuentas de prueba en el plano de control de NA para acceder a una instancia de IDE en la nube y experimentar una latencia mucho menor a medida que diseñan y desarrollan. En el futuro, todas las versiones y mejoras futuras de Anypoint Code Builder estarán disponibles para los aviones de control de EE. UU. y la UE simultáneamente.
Entonces, ¿cómo pueden comenzar los usuarios de la UE? Simplemente haga que el administrador de su organización acepte los Términos y condiciones de la versión Beta y le otorgue permisos, luego diríjase aAnypoint Code Builder Central, donde puede crear una nueva instancia de su IDE en minutos. Y dado que es un IDE basado en la nube, seleccionaremos automáticamente el plano de control adecuado para su instancia. ¡Es fácil!
Diseño e implementación de API iterativas
Con Anypoint Code Builder, a los usuarios se les ofrecen tres recorridos principales para comenzar:diseñar especificaciones de API,implementar especificaciones de APIydesarrollar integraciones. Tradicionalmente, la única forma de implementar una especificación de API era terminar por completola fase de diseño y publicarla en nuestro mercado público,Anypoint Exchange. Sin embargo, no existe una regla que diga que el diseño y la implementación de la API deben estar aislados (después de todo, todos somos Trailblazers aquí, ¿no?). Es por eso que presentamos el diseño e implementación de API iterativas en Anypoint Code Builder. Esto le permite comenzar a diseñar la especificación de su API y luego saltar directamente a la fase de implementación para comenzar a agregar lógica empresarial antes de completar la fase de diseño. El resultado final es una experiencia optimizada que permite a los usuarios flexibilizarse entre las fases de diseño e implementación, abordando todo el proyecto en secciones en lugar de todo a la vez. Y para colmo, hemos hecho que toda esta experiencia sea perfecta al proporcionar una vista única para ambas fases directamente desde su navegador.
Se agregó soporte de interfaz de usuario para fragmentos
Cuando se lanzó por primera vez Open Beta para Anypoint Code Builder, la interfaz de usuario era de solo lectura. Los desarrolladores podían usarlo para visualizar su trabajo, pero no había forma de desarrollarlo activamente. Sin embargo, este siempre fue un plan temporal y el objetivo final es brindar a los usuarios dos opciones sólidas para la integración y el desarrollo de API: código bajo y código profesional. Durante los últimos seis meses, hemos estado trabajando para lograr esta visión agregando formas de interactuar con la interfaz de usuario. Por ejemplo, en nuestro lanzamiento de abril, introdujimos la capacidad de agregar nuevos componentes a sus flujos simplemente usando el símbolo "+".
En nuestro lanzamiento de junio, presentamos dos mejoras más en la interfaz de usuario para mejorar la experiencia de código bajo. La primera es la capacidad de seleccionar conectores directamente desde Anypoint Exchange mientras se agregan componentes. Esto proporciona a los desarrolladores una alternativa de interfaz de usuario a la paleta de comandos, al mismo tiempo que les brinda una forma más limpia de clasificar todas las versiones y operaciones del conector que están disponibles. El segundo es la capacidad de agregar fragmentos de la interfaz de usuario.
Los fragmentos son bloques de código preempaquetados que los desarrolladores pueden reutilizar en varios proyectos. Hay algunos que vienen preconstruidos con Anypoint Code Builder, pero los desarrolladores también pueden crearlos personalizados. Esto acelera el desarrollo al facilitar la replicación de tareas repetitivas. Por ejemplo, supongamos que con frecuencia necesita obtener información de contacto de una organización específica en Salesforce. La primera vez que haga esto, escribirá el XML con toda la configuración necesaria. Una vez escrito, puede empaquetar ese código en un fragmento. La próxima vez que necesite obtener información de contacto de esa organización, simplemente puede seleccionar ese fragmento de la interfaz de usuario en lugar de codificarlo todo nuevamente. A medida que los desarrolladores comienzan a crear bibliotecas de fragmentos, vemos que se trata de una herramienta increíblemente poderosa que ayudará a promover la reutilización en toda la organización.
Conclusión
El lanzamiento en junio de la versión beta abierta de Anypoint Code Builder es un hito fundamental en nuestro camino hacia la disponibilidad general. Con la expansión al plano de control de la UE, estamos entusiasmados de brindarles a más desarrolladores la oportunidad de tener en sus manos el producto. Y esperamos continuar introduciendo capacidades de interfaz de usuario adicionales junto con algunas funcionalidades de inteligencia artificial emocionantes a finales de este año. Si desea obtener una descripción general más detallada de las mejoras de junio, consulte ladescripción general completa del video.
Más recursos
Sobre el Autor
Rohan Vettiankales gerente de marketing de productos en MuleSoft, donde dirige su cartera de integración. A lo largo de su carrera, ayudó a llevar una variedad de productos al mercado, incluida una herramienta de visualización de datos basada en la web, una plataforma de infraestructura de datos local y un producto PaaS en la nube. En su tiempo libre, Rohan disfruta de actividades al aire libre como el senderismo, el snowboard y la escalada en roca. También le encanta la música y ha estado tocando el piano desde que tenía 12 años y recientemente ha estado aprendiendo guitarra. Siga a Rohan enLinkedIn.
Obtenga las últimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a través de Slack o RSS.
Esta es una traducción que desde EGA Futura ofrecemos como cortesía a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoamérica .
El enlace a la publicación original, lo encontrarás al final de este artículo.
…
Diseñe una API de Swagger con código para llevar datos a Salesforce | Blog de desarrolladores de Salesforce
La integración de una API externa con su organización de Salesforce puede ser una tarea sencilla que no requiere código si utilizaCredenciales con nombre y Servicios externos . Deberá crear una credencial con nombre que apunte a la API y configurar un servicio externo en la interfaz de usuario de configuración. La clave aquí es proporcionar una especificación OpenAPI para la API. Si la API no tiene una, puede diseñarla usted mismo manualmente usando YAML o JSON, usar MuleSoft Anypoint Platform o aprovechar las herramientas y el código de código abierto.
En esta publicación, le presentaremos la especificación OpenAPI y Swagger, discutiremos los elementos principales de la especificación y lo guiaremos a través del diseño e implementación de una API con código. Usaremos Node.js y Swagger dentro del marco Fastify para esta tarea. Finalmente, integraremos esta API con Salesforce.
OpenAPI y Swagger
OpenAPI es una especificación para diseñar y construir API. Proporciona una forma estandarizada de definir su API para otros, brindando una forma estructurada que incluye puntos finales, tipos de solicitud/respuesta, definiciones de esquema, métodos de autenticación y más. Las especificaciones de OpenAPI están escritas en formatos YAML o JSON, ambos fáciles de leer y escribir. Esta especificación es ampliamente adoptada y respaldada por una variedad de herramientas, lo que la convierte en una opción popular para diseñar y documentar API. De hecho, si desea importar una API a Salesforce utilizando servicios externos, deberá especificarse con OpenAPI. Además, Salesforce es miembro de la Iniciativa OpenAPI .
Nota:A la fecha de esta publicación, la versión actual de la especificación OpenAPI es 3.1.0.
Swagger , por otro lado, es un conjunto de herramientas ( la mayoría de código abierto ) para implementar la especificación OpenAPI. Incluye la interfaz de usuario de Swagger, que proporciona una interfaz gráfica para comprender y probar las API, y Swagger Codegen, que genera código SDK de cliente y apéndices de servidor a partir de una especificación OpenAPI.
La especificación OpenAPI v2 también se conoce como Swagger, pero su nombre cambió cuando se convirtió en parte de la iniciativa OpenAPI en 2016.
Estructura básica de la especificación OpenAPI
La especificación OpenAPI está organizada en las siguientes secciones clave:
API abierta
Define el documento raíz y combina la lista de recursos y la declaración de la API. Requerido
Información
Proporciona metadatos sobre la API, como el título, la descripción, los términos del servicio, la información de contacto, etc. Obligatorio
Servidores
Especifica una o más URL base para su API, como producción o preparación.
Seguridad
Define un esquema de seguridad que pueden utilizar las operaciones de la API.
Caminos
Describe las rutas y operaciones disponibles para la API. Cada ruta tiene un método HTTP con los detalles de la operación.
Etiquetas
Agrega metadatos a una sola etiqueta que utiliza el objeto de operación.
Documentos externos
Proporciona una descripción y una URL para la documentación externa.
Componentes
Define un conjunto de objetos reutilizables para diferentes aspectos de la API. Esto puede incluir esquemas, respuestas, parámetros, ejemplos, cuerpos de solicitud, encabezados, esquemas de seguridad, etc.
Para fines de demostración, crearemos una API para administrar una librería. Esta API contará con dos métodos HTTP: uno para enumerar los libros disponibles y otro para agregar nuevos libros. A continuación, encontrará una definición básica de esta API, centrándose en el método para listar libros ( GET /books ) y sus objetos de respuesta.
Tenga en cuenta que estamos usando tres secciones principales aquí: Información , Rutas y Componentes . Como se mencionó anteriormente, describiremos esta API a medida que la implementemos mediante código. Para este propósito, utilizaremos Fastify y Fastify Swagger.
Fastify y Fastify Swagger
Fastify es un marco web altamente eficiente y flexible para Node.js. Está diseñado para facilitar su uso y ofrecer la máxima velocidad sin comprometer la personalización. Fastify proporciona una base sólida para las aplicaciones web y las API, con funciones como la validación de solicitudes y respuestas basadas en esquemas, ganchos, complementos y registro automático. Una de sus principales ventajas radica en su ecosistema, que incluye numerosos complementos centrales y mantenidos por la comunidad.
Uno de estos complementos es fastify-swagger . Este complemento nos permite ofrecer definiciones de Swagger (OpenAPI v2) u OpenAPI v3, que se generan automáticamente a partir de sus esquemas de ruta o de una definición existente de Swagger/OpenAPI. Además, utilizará fastify-swagger-ui , un complemento que sirve una instancia de Swagger UI dentro de su aplicación.
Nota: La siguiente demostración requiere la instalación de Node.js LTS y, a la fecha de esta publicación de blog, la última versión es v18.16.0.
Comencemos a crear la API de su librería instalando Fastify CLI y generando un nuevo proyecto ejecutando:
Luego, vayamos a la carpeta del proyecto e instalemos las dependencias fastify-swagger y fastify-swagger-ui .
Nota: En esta demostración, se centrará en tres aspectos principales: agregar compatibilidad con Swagger a Fastify, definir rutas de API y delinear esquemas y tipos de respuesta. No explicaremos cómo integrar la API con una base de datos. Si está interesado en explorar la fuente completa del proyecto, está disponible en el repositorio de ejemplos de codeLive.
Agreguemos compatibilidad con Swagger a Fastify editando el archivo app.js , luego importemos Swagger y SwaggerUI y registrémoslos como complementos.
aplicación.js
En la configuración del complemento de Swagger, tiene la opción de pasar toda la definición de especificación de OpenAPI, o puede aprovechar el enfoque dinámico que ofrece el complemento. Para esta demostración, utilizará el enfoque dinámico. Dado que el único campo obligatorio es info , definirá los metadatos de su API allí, además, la sección refResolver se encarga de nombrar las referencias de definición de esquema.
Y para SwaggerUI, solo especifica la ruta donde se alojará el sitio de documentación.
Ahora vamos a crear una carpeta schemas . Aquí es donde definirá los esquemas de su API. Para esta demostración, definirá un esquema book y un esquema error .
esquemas/index.js
Los esquemas representan la estructura de los objetos con los que trabajará, tanto para los cuerpos de solicitud como para los de respuesta. Para la especificación OpenAPI, el complemento Swagger agregará automáticamente estos objetos en el campo components .
Finalmente, definamos las rutas API para GET /books y POST /books usando Fastify. Primero, deberá registrar los esquemas dentro de Fastify. Luego, especificará los objetos de respuesta y solicitud para cada ruta que haga referencia a esos esquemas.
rutas/root.js
{ // … look at the code repository for a complete implementation } ) // POST /books fastify.post( ‘/books’, { schema: { description: "Create a book", body: { $ref: ‘book#’, required: [‘author’, ‘title’] }, response: { 201: { description: ‘Returns the book that has been created’, $ref: ‘book#’ }, 500: { description: ‘Returns an error’, $ref: ‘error#’ } } } }, async (request, reply) => { const { title, author } = request.body const id = randomUUID() const client = await fastify.pg.connect() try { const { rows: books } = await client.query( ‘INSERT INTO books(id, title, author) VALUES($1, $2, $3) RETURNING *’, [id, title, author] ) const [newBook] = books reply.code(201).send(newBook) } catch (error) { reply .status(500) .send({ code: 500, message: `An error ocurred: ${error.message}` }) } finally { client.release() } } ) // GET / fastify.get(‘/’, { schema: { hide: true } }, async function (request, reply) { reply.status(301).redirect(‘/api-docs’) })
} «>
Analicemos la ruta POST /books :
La función fastify.post define el método HTTP.
El primer argumento especifica la ruta: /books.
El segundo argumento especifica el schema , que incluye el body : el objeto de carga útil que espera la API. (Tenga en cuenta que es una referencia al esquema del book ). También incluye varios objetos response para esa ruta, que se asignan a los códigos de estado HTTP correspondientes 201 y 500 .
El tercer argumento es la implementación de la ruta. En este caso, está insertando el objeto en la base de datos y devolviendo el nuevo objeto. Si este proceso falla, devolverá un objeto de error. Es importante tener en cuenta que está utilizando los mismos esquemas que definió anteriormente.
Nota: También tiene la opción de excluir ciertas rutas de la documentación pasando hide: true en el objeto de esquema de esa ruta específica, como se demuestra en GET / route.
Su API está lista, así que ejecútela localmente para echar un vistazo a la interfaz de SwaggerUI ejecutando:
Y navegue a http://localhost:3000/api-docs para ver las diferentes rutas, su documentación y tener una forma de probarlas directamente desde la interfaz.
Si desea probarlo e implementarlo en Heroku, asegúrese de actualizar el script start en el archivo package.json con lo siguiente.
Además, asegúrese de tener acceso a una base de datos Heroku PostgreSQL y cree el esquema de la base de datos ejecutando:
<dx-code-block title language code-block="heroku pg:psql
Ahora que tiene una API de acceso público, integrémosla con Salesforce como un servicio externo.
Primero, deberá crear una credencial con nombre para esta API. En la interfaz de usuario de configuración, vaya a Seguridad > Credenciales con nombre y cree una credencial externa con un protocolo de autenticación personalizado y una entidad de seguridad.
Asegúrese de que la credencial externa tenga una entidad principal a la que le haya asignado permisos en Acceso principal de credenciales externas en su conjunto de permisos.
Luego, cree una credencial con nombre que haga referencia a la credencial externa con la URL que apunta a la API pública.
A continuación, vaya a Integraciones > Servicios externos y agregue un nuevo servicio externo desde una especificación de API, seleccione la credencial con nombre y configure la ruta relativa a la ruta de especificación de OpenAPI. En su demostración, será /api-docs/json .
Después de eso, guarde sus cambios y seleccione las operaciones que desea importar a Salesforce, revise las operaciones y finalice.
Como puede ver, las operaciones que ha seleccionado se han importado correctamente, especificando tanto los parámetros de entrada como los de salida.
Ahora podrá invocar este servicio externo desde Flow, Apex, Einstein Bots y OmniStudio.
Conclusión
OpenAPI y los servicios externos de Salesforce brindan una poderosa combinación para integrar API externas en su organización de Salesforce. Al aprovechar el enfoque estandarizado de OpenAPI para definir las API y la capacidad de Salesforce para consumir fácilmente estas definiciones e invocarlas desde soluciones de código bajo y pro-código, los desarrolladores como usted pueden optimizar el proceso de conexión a servicios externos y mejorar las capacidades de sus aplicaciones de Salesforce.
Si está interesado en obtener más información sobre los servicios externos , puede encontrar una lista de recursos de aprendizaje a continuación, incluidos videos que muestran cómo invocarlos desde Flow y Apex.
Recursos de aprendizaje
Sobre el Autor
Julián Duque es un defensor principal de desarrolladores en Salesforce, donde se enfoca en Node.js, JavaScript y desarrollo backend. Le apasiona la educación y el intercambio de conocimientos y ha estado involucrado en la organización de comunidades tecnológicas y de desarrolladores desde 2001.
Sígalo en Twitter @julian_duque, @julianduque.co en Bluesky social o LinkedIn.
Obtenga las últimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a través de Slack o RSS.