Skip to content

Etiqueta: Salesforce Data Cloud

Conexi贸n de Google Cloud Storage y Salesforce mediante Data Cloud 鈽侊笍

Conexi贸n de Google Cloud Storage y Salesforce mediante Data Cloud 鈽侊笍

Empieza a ingerir datos de tus buckets de Google Cloud Storage en Data Cloud para seguir construyendo una 煤nica fuente de verdad para tus clientes.

Data Cloud

The post Conexi贸n de Google Cloud Storage y Salesforce con Data Cloud appeared first on Blog de Desarrolladores de Salesforce.

Conozca las ventajas de Google Cloud Storage y Salesforce con Data Cloud

Seguir leyendo

Todo el mundo es un Einstein en el Salesforce World Tour S铆dney 2024

Desde la 煤ltima innovaci贸n en IA, historias de Trailblazer y anuncios de subvenciones hasta un nuevo ganador de la Sudadera con capucha dorada, aqu铆 tiene seis momentos destacados del Salesforce World Tour S铆dney 2024.

Seguir leyendo

Salesforce Data Cloud: Explore el papel de CDP en la excelencia del marketing, de los datos a la estrategia

Desbloquee el poder transformador de las plataformas de datos de clientes en nuestra gu铆a & descubra sus ventajas para la gesti贸n de datos y el marketing estrat茅gico.

El post Salesforce Data Cloud: Explore CDP’s Role in Marketing Excellence, From Data to Strategy appeared first on Salesforce.

Descubra las ventajas de Salesforce Data Cloud para la gesti贸n de datos y el marketing estrat茅gico

Seguir leyendo

10 preguntas frecuentes sobre la implementaci贸n de Salesforce Einstein

驴Qu茅 es Salesforce Einstein? Seg煤n la presentaci贸n oficial del producto de Salesforce en su sitio web, 芦Salesforce Einstein es la primera IA integral para CRM. Se trata de un conjunto integrado de tecnolog铆as de IA que hace que la plataforma Customer Success Platform sea m谩s inteligente y lleva la IA a los pioneros de todo el mundo禄  Pero, 驴esta breve explicaci贸n transmite realmente la profundidad con la que la IA interact煤a con […]

El post 10 preguntas frecuentes sobre la implementaci贸n de Salesforce Einstein appeared first on Salesforce Ben.

Seguir leyendo

Aprovechar el potencial de las acciones de datos utilizando un Webhook como destino 鈽侊笍

Aprovechar el potencial de las acciones de datos utilizando un Webhook como destino 鈽侊笍

Aprenda sobre la funci贸n Data Actions de Data Cloud y recorra c贸mo ampliar un webhook como objetivo para visualizar e impulsar los resultados empresariales.

Los eventos webhook se pueden utilizar para la visualizaci贸n

The post Desbloquee el poder de las acciones de datos utilizando un webhook como objetivo appeared first on Blog de desarrolladores de Salesforce.

Descubra la funci贸n de Data Cloud y aprenda a ampliar un webhook como objetivo para visualizar e impulsar resultados empresariales

Seguir leyendo

Configuraci贸n de modelos de IA en Einstein Copilot Studio: Gu铆a paso a paso 鈽侊笍

Configura y autentica tus modelos de IA en Einstein Copilot Studio, y emite tus predicciones en Data Cloud.

Data Cloud

The post C贸mo configurar modelos de IA en Einstein Copilot Studio appeared first on Blog de Desarrolladores de Salesforce.

Seguir leyendo

As铆 es como aconsejo a los directivos ansiosos que aborden la IA generativa

Muchos l铆deres empresariales est谩n nerviosos en privado por la IA generativa. Saben que tienen que hacer algo, pero no saben qu茅 y c贸mo. As铆 es como lo desgloso para ellos.

Seguir leyendo

Un d铆a en la vida de un nuevo programador de Salesforce

Ingresar en el ecosistema de Salesforce puede ser una experiencia desalentadora pero emocionante. Hace poco m谩s de un a帽o, me incorpor茅 a Giveclarity como consultor t茅cnico en pr谩cticas. Tras tres meses de formaci贸n, me adentr茅 en el din谩mico mundo de la consultor铆a. Como nuevo miembro del equipo t茅cnico, me dedico a todo tipo de tareas, desde trabajar en […]

The post Un d铆a en la vida de un nuevo codificador de Salesforce appeared first on Salesforce Ben.

Seguir leyendo

IA para TI: los nuevos lanzamientos de IA de Dreamforce 2023

IA para TI: los nuevos lanzamientos de IA de Dreamforce 2023

Con la IA como prioridad para todos los l铆deres de TI, descubra c贸mo estos nuevos lanzamientos de IA est谩n impulsando la productividad y la eficiencia de los equipos de TI.

Seguir leyendo

Lleve sus modelos de IA de Google Vertex a la nube de datos 鈽侊笍

Lleve sus modelos de IA de Google Vertex a la nube de datos 鈽侊笍

Esta es una traducci贸n que desde EGA Futura ofrecemos como cortes铆a a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoam茅rica .

El enlace a la publicaci贸n original, lo encontrar谩s al final de este art铆culo.

Lleve sus modelos de IA de Google Vertex a la nube de datos | Blog de desarrolladores de Salesforce

Model Builder, parte de Einstein Copilot Studio, es una plataforma f谩cil de usar que le permite crear y poner en funcionamiento modelos de IA en Salesforce. Model Builder es capaz de integrarse profundamente con plataformas de IA externas, como Google Cloud Vertex AI y Amazon SageMaker, para que pueda crear, entrenar e implementar modelos de IA personalizados de forma externa utilizando datos de Salesforce Data Cloud.

Salesforce anunci贸 previamente el lanzamiento de Model Builder con Amazon SageMaker en agosto de 2023. Hoy, nos complace anunciar que los modelos de Google Vertex AI ahora est谩n disponibles de forma general en Model Builder. Como parte de esta 煤ltima versi贸n, Model Builder ahora admite la autenticaci贸n mediante las credenciales de la cuenta del servicio de Google, as铆 como la ingesti贸n de datos en streaming.

Estamos entusiasmados con esta nueva innovaci贸n de la asociaci贸n ampliada de Salesforce con Google Cloud, que consideramos que tiene un enorme potencial para los desarrolladores. Como enfatiz贸 Kaushal Kurapati, vicepresidente senior de Producto, IA y B煤squeda de Salesforce:

鈥淐on esta asociaci贸n con Google Cloud, Model Builder ofrece una manera conveniente para que los clientes aprovechen sus modelos Vertex AI en sus fuentes de datos, flujos de trabajo y aplicaciones de Salesforce y brinden experiencias personalizadas, continuando con la visi贸n de construir una plataforma abierta de Salesforce AI con un ecosistema modelo robusto鈥.

驴Qu茅 es la capacidad de traer su propio modelo (BYOM)?

Model Builder le permite conectarse f谩cilmente a modelos predictivos externos, como los de un proveedor de modelos externo o su propio modelo propietario, y utilizarlos en el flujo de trabajo en Salesforce. Por ejemplo, puede utilizar modelos predictivos para calificar clientes potenciales, recomendar productos o detectar la deserci贸n.

La capacidad BYOM de Model Builder le permite integrar f谩cilmente su modelo con Data Cloud para acceder a predicciones e informaci贸n en tiempo real, y utilizar esa informaci贸n de varias maneras, como enriquecer perfiles de clientes, crear segmentos y personalizar la experiencia del usuario final en diferentes canales.

驴Por qu茅 traer su propio modelo a Data Cloud?

Estos son algunos de los beneficios de usar un modelo de Google Cloud Vertex AI con datos de Data Cloud en Model Builder:

  • Le brinda acceso a datos altamente seleccionados, armonizados y casi en tiempo real en Customer 360, en Vertex AI
  • Elimina trabajos de ETL tediosos, costosos y propensos a errores; El enfoque de federaci贸n de copia cero para los datos reduce los gastos generales de gesti贸n de copias de datos y los costos de almacenamiento, y mejora la eficiencia.
  • Le permite crear, entrenar, probar y ajustar modelos r谩pidamente en una 煤nica plataforma y conectarlos con Data Cloud.
  • Admite la ingesta de datos en tiempo real, streaming y por lotes para impulsar resultados de IA relevantes
  • Aprovecha las predicciones de Vertex AI para automatizar procesos comerciales en Salesforce Data Cloud con Flow y Apex

Para obtener m谩s informaci贸n, mire nuestro breve v铆deo .

Flujo de trabajo de la aplicaci贸n para usar Model Builder con Vertex AI de Google Cloud

En esta secci贸n, analizamos brevemente el flujo de trabajo de la aplicaci贸n utilizando Model Builder.

En el flujo de trabajo que se muestra arriba, el conector Python brinda a Vertex AI acceso seguro a los objetos de Salesforce Data Cloud. Despu茅s de la autenticaci贸n, los especialistas en datos pueden explorar y preparar datos, y realizar tareas de ingenier铆a de caracter铆sticas para el desarrollo y la inferencia de modelos de IA utilizando la plataforma Vertex AI.

Tenga en cuenta que si se realiza una autenticaci贸n basada en clave API, se necesita una puerta de enlace API delante del punto final de Vertex AI.

NUEVA caracter铆stica: Autenticaci贸n mediante credenciales de cuenta de servicio de Google

La versi贸n m谩s reciente de Model Builder ahora permite utilizar las credenciales de la cuenta del servicio de Google para la autenticaci贸n. Esto se suma a los m茅todos de autenticaci贸n JWT y basados en claves existentes. Para utilizar un flujo de token al portador JWT, ingrese su correo electr贸nico de la cuenta de servicio, ID de clave privada y clave privada de su cuenta de Google Cloud como se muestra a continuaci贸n.

NUEVA caracter铆stica: Ingesti贸n de datos en streaming

La 煤ltima versi贸n de Model Builder le permite activar autom谩ticamente una inferencia cuando los datos asignados a la variable de entrada del modelo se cambian en el objeto del modelo de datos de origen (DMO). Tambi茅n ofrecemos inferencia por lotes, pero debe hacer clic en el bot贸n Actualizar manualmente para activar nuevas inferencias. Con la inferencia de transmisi贸n, las nuevas inferencias se activan solo cuando hay un cambio en la variable de entrada.

Para habilitar la inferencia de transmisi贸n, deber谩 marcar la casilla S铆 en 驴Actualizar modelo cuando se actualizan los datos? Como se muestra abajo.

Tambi茅n puede especificar cu谩les de las funciones de entrada deben actualizarse seleccionando S铆 en el men煤 desplegable Actualizar puntuaci贸n .

C贸mo consumir predicciones de tu modelo en Salesforce

Hay dos formas de consumir predicciones: usar acciones invocables en Flow y Apex, o usar Query API para realizar an谩lisis ad hoc.

Utilice Flow Builder y Apex para obtener predicciones

A continuaci贸n se muestra un ejemplo de c贸mo utilizar acciones invocables para modelos de Model Builder en Flow. Una vez que tenga un modelo activado en Model Builder, seleccione Nueva acci贸n 鈫 Nube de datos y luego haga clic en el nombre del modelo deseado.

La captura de pantalla siguiente muestra un flujo de ejemplo que utiliza una acci贸n invocable para crear recomendaciones de productos para un cliente. Aqu铆, un administrador usa Flow Builder para recorrer los registros individuales unificados y verificar si se realiz贸 una compra reciente. Si se realiz贸 la compra, la acci贸n invocable obtiene la inferencia del modelo de Model Builder y recomienda el siguiente mejor producto a un cliente.

Esta acci贸n invocable tambi茅n se puede invocar en Apex. Vea el ejemplo a continuaci贸n.

<dx-code-block title language="apex" code-block="Invocable.Action action = Invocable.Action.createCustomAction('cdpGetMlPrediction', 'EinsteinStudio_model_name');
action.setInvocationParameter('param_variable_1', '10');
action.setInvocationParameter('param_variable_2', '20');
action.setInvocationParameter('param_variable_3', '30');
List results = action.invoke();
if (results.size() > 0 && results[0].isSuccess()) { System.debug(‘Result is: ‘ + results[0].getOutputParameters().get(‘param_score’));
} else { System.debug(‘Error message’ + results[0].getErrors());
} 芦>

Para obtener instrucciones sobre el uso de acciones invocables en Flow y Apex, consulte la Ayuda de Salesforce .

Utilice Query API para obtener predicciones

Query API es otra forma r谩pida de obtener puntuaciones de predicci贸n para datos que residen en Data Cloud. Con Query API, puede utilizar el punto final de inferencia y llamar a funciones de predicci贸n para probar el punto final. Vea el ejemplo a continuaci贸n.

Para obtener instrucciones sobre el uso de acciones invocables en QueryAPI, consulte la Ayuda de Salesforce .

Conclusi贸n

Model Builder es una plataforma de IA f谩cil de usar que permite a los equipos de ingenier铆a y ciencia de datos crear, entrenar e implementar modelos de IA utilizando plataformas y datos externos en Data Cloud. Las plataformas externas incluyen Google Cloud Vertex AI, Amazon SageMaker y otros servicios de IA predictivos o generativos. Una vez que est茅 listo, podr谩 utilizar los modelos de IA en tiempo real para impulsar cualquier aplicaci贸n de ventas, servicios, marketing, comercio y otras aplicaciones en Salesforce.

Para obtener m谩s informaci贸n sobre c贸mo puede mejorar su estrategia de IA utilizando Model Builder, asista a nuestro seminario web gratuito con expertos en IA de Salesforce y Google Cloud.

Recursos adicionales

Sobre los autores

Daryl Martis es el director de producto de Salesforce de Einstein. Tiene m谩s de 10 a帽os de experiencia en planificaci贸n, creaci贸n, lanzamiento y gesti贸n de soluciones de clase mundial para clientes empresariales, incluidas AI/ML y soluciones en la nube. S铆guelo en LinkedIn o Twitter .

Ashish Thapliyal es director s茅nior de producto en Salesforce y actualmente dirige varias 谩reas de productos de la plataforma Einstein AI. S铆guelo en LinkedIn o Twitter .

Obtenga las 煤ltimas publicaciones de blog y episodios de podcasts para desarrolladores de Salesforce a trav茅s de Slack o RSS.

A帽adir a holgura Suscr铆bete a RSS

Seguir leyendo

C贸mo comenzar con Salesforce Data Cloud: gu铆a 101 y casos de uso

C贸mo comenzar con Salesforce Data Cloud: gu铆a 101 y casos de uso

脷ltima actualizaci贸n el 2 de octubre de 2023 por Rakesh Gupta

Los datos no son s贸lo un buen extra; es esencial. Especialmente ahora, cuando las empresas operan en gran medida en espacios digitales, la necesidad de un buen uso de los datos es clara. El papel del an谩lisis de datos se ha vuelto crucial para impulsar el 茅xito de una empresa. Es importante que los l铆deres de las empresas tengan un plan de datos s贸lido, uno que permita que sus negocios avancen r谩pidamente y enfrenten desaf铆os dif铆ciles.

Los equipos se benefician enormemente de un an谩lisis de datos s贸lido. Pueden tomar decisiones inteligentes m谩s r谩pido que antes y tambi茅n con mayor precisi贸n. Este tipo de uso de datos tambi茅n ayuda a los equipos a trabajar mejor juntos al eliminar cosas que obstaculizan un buen trabajo en equipo. Los l铆deres de TI tienen un papel especial aqu铆. Tienen las habilidades para hacer que los datos sean 煤tiles de nuevas maneras, transformando el trabajo de los equipos y mejorando la experiencia de los clientes.

驴Qu茅 es Salesforce Data Cloud y por qu茅 deber铆a implementarlo?

Salesforce Data Cloud est谩 dise帽ada para cambiar la forma en que las empresas interact煤an con los clientes. Es bueno para recopilar datos de diferentes lugares. Estos datos van a una gran 谩rea de almacenamiento llamada lago de datos. Luego utiliza un an谩lisis preciso para explicar lo que significan los datos.

Salesforce Data Cloud ayuda a vincular varias fuentes y nubes m谩s r谩pidamente en toda la plataforma. Sin embargo, Data Cloud tambi茅n es un art铆culo que se puede pedir. Aunque no todos los clientes de Salesforce han comprado Data Cloud, aunque se encuentran en el punto de partida, todav铆a utilizan Data Cloud hasta cierto nivel. Sin embargo, todo esto se fortalece cuando se utiliza la Nube de Datos como plataforma de personalizaci贸n y unificaci贸n de datos.

驴Por qu茅 necesito implementar una nube de datos ahora?

Imag铆nese c贸mo el volumen de datos crece r谩pidamente cuando piensa en la cantidad de clics que hace cada cliente. Puede realizar un seguimiento de dichos datos de participaci贸n a medida que ocurren, por ejemplo, cuando los usuarios abren y hacen clic en correos electr贸nicos, exploran p谩ginas en sus aplicaciones m贸viles y miran art铆culos en su tienda en l铆nea. Es mucho m谩s probable que las personas hagan clic cuando les env铆as un correo electr贸nico o una oferta que les resulta 煤til. Puede capturar la interacci贸n cuando un consumidor hace clic en Data Cloud. Cuando sepa qu茅 les interesa y si es probable que compren algo o no, podr谩 aprovechar esta informaci贸n a su favor.

Para cada sector o puesto, la Nube de Datos puede generar experiencias y oportunidades de negocio potentes.

Para analizar cuentas integradas y adquirir informaci贸n r谩pida y f谩cilmente sobre sus clientes y los efectos comerciales, los analistas pueden conectar Data Cloud a Tableau o QlikView . Cuando una empresa puede identificar a sus consumidores en funci贸n de la cantidad y el tema de sus tickets de soporte, puede desarrollar y llevar a cabo un plan para reducir esos tickets. Verifique los datos nuevamente para asegurarse de que el plan haya tenido 茅xito.

Los desarrolladores pueden crear software utilizando datos de Data Cloud, como un sistema de puntuaci贸n de salud que mide la puntuaci贸n de salud de un paciente utilizando objetos e informaci贸n predise帽ados. Cuando una actividad de datos inicia un flujo para enviar notificaciones a los m茅dicos cuando una puntuaci贸n cae por debajo de un nivel espec铆fico, esa puntuaci贸n y su uso se convierten en una experiencia que salva vidas.

Seg煤n la probabilidad de conversi贸n de un cliente, los vendedores pueden obtener informaci贸n sobre sus clientes potenciales y sus ventas potenciales. Seg煤n los h谩bitos de navegaci贸n de los usuarios y los niveles actuales de oferta de productos, la gesti贸n del comercio electr贸nico puede utilizar datos para personalizar su sitio web.

驴C贸mo funciona la nube de datos de Salesforce?

Fuente de la imagen: Blog de desarrolladores de Salesforce Re煤na todos los datos de sus clientes en Data Cloud

En pocas palabras, Data Cloud permite a los administradores de Salesforce realizar una variedad de acciones, que incluyen, entre otras:

  • Vincula tus fuentes de datos por lotes y de streaming.
  • Refine los datos entrantes empleando m茅todos de transformaci贸n y adhiri茅ndose a protocolos de gobernanza.
  • Estandariza tus datos conform谩ndolos a un modelo establecido.
  • Fusione diferentes elementos de datos mediante la aplicaci贸n de reglas de coincidencia de identidades.
  • Explore su conjunto de datos para obtener informaci贸n mediante consultas y an谩lisis en profundidad.
  • Implementar algoritmos de inteligencia artificial para pronosticar comportamientos.
  • Divida y fragmente sus datos y luego implem茅ntelos en m煤ltiples plataformas para crear experiencias personalizadas.
  • Eval煤e sus datos a trav茅s de soluciones de an谩lisis compatibles.
  • Exporte estos datos a diversos destinos, alineando acciones con objetivos comerciales espec铆ficos.
  • Vuelva a evaluar, cuantifique y ajuste peri贸dicamente sus activos de datos.
Fuente de la imagen: Ayuda de Salesforce Acerca de Salesforce Data Cloud

C贸mo empezar con la nube de datos

Se puede utilizar una estructura similar a un lago de datos para describir Salesforce Data Cloud. Como ejemplo, recopilando todos los datos de la plataforma Salesforce. Sin embargo, tambi茅n es capaz de importar datos de otras fuentes externas, como lagos de datos.

Perspectiva :

Un lago de datos es una ubicaci贸n concentrada para almacenar datos no procesados. Las empresas utilizan este sistema de almacenamiento enorme, adaptable y asequible para recopilar y guardar grandes cantidades de datos organizados, no estructurados y semiestructurados en su formato original. Las publicaciones en redes sociales, los registros de sensores y los datos de ubicaci贸n son solo algunos ejemplos de los datos no estructurados que recopilan los lagos de datos.

Lo que indica para los usuarios : las marcas son m谩s capaces de predecir los requisitos y necesidades de los consumidores debido a la gran cantidad de informaci贸n accesible en un lago de datos.

C贸mo afecta a los equipos : Los equipos pueden acceder a enormes cantidades de datos en una ubicaci贸n, lo que les permite moverse m谩s r谩pidamente y mantenerse al d铆a con (o superar) a los oponentes.

Pasos de implementaci贸n

Revise esta lista de verificaci贸n sugerida antes de comenzar a utilizar Data Cloud. Confirme que su equipo est茅 configurado antes de implementar Data Cloud, verifique estos puntos:

  • El equipo comprende los principales conceptos y restricciones que pueden afectar la facturaci贸n.
  • Analiza la gesti贸n de la marca y la estructura organizacional.
  • Examina los principios del modelo de datos antes de acordar una estrategia de datos.
  • Analice los datos que ya tiene y las fuentes de datos.
  • Reconoce a un administrador de Salesforce para configurar Salesforce Data Cloud.
  • Enumera los usuarios adem谩s de los permisos que requieren.
  • Establece objetivos de segmentaci贸n.
Fuente de la imagen: Configuraci贸n de la nube de datos del m贸dulo Trailhead

Costo y disponibilidad de Salesforce Data Cloud

Salesforce Data Cloud es costoso. Es una inversi贸n que requiere una planificaci贸n meticulosa porque comienza en $10 mil por organizaci贸n, mensualmente. De manera realista, dependiendo de los valores de sus datos, es posible que su empresa ya necesite gastar m谩s en Data Cloud. Como tus datos crecen constantemente, es importante tenerlo presente todo el tiempo, pero…  

鈥 En el 煤ltimo evento de Dreamforce, Salesforce anunci贸 que las licencias gratuitas de Data Cloud ya est谩n disponibles. Los clientes que tengan Enterprise Edition o superior ahora pueden acceder a Data Cloud sin costo alguno. En esta oferta se incluyen dos licencias de Tableau Creator, que permiten a las empresas conectar hasta 10聽000 perfiles de clientes y comenzar sus exploraciones.

En conclusi贸n

Los datos son m谩s cruciales que nunca y supervisar el flujo de datos en constante crecimiento es un trabajo incre铆ble. Sin embargo, los datos tienen una enorme influencia. El potencial de obtener conocimientos empresariales que puedan fundamentar decisiones y producir experiencias sorprendentes para los clientes crece a medida que aumenta el acceso a los datos y la alfabetizaci贸n sobre datos para las personas de toda su empresa. La IA y el CRM se pueden utilizar para impulsar actividades inteligentes y proporcionar servicios personalizados a escala cuando se combinan con datos procesables en tiempo real.

Ahora, con Data Cloud y Einstein AI nativos en la plataforma Einstein 1, las empresas pueden crear f谩cilmente aplicaciones y flujos de trabajo impulsados por AI que potencian la productividad, reducen costos y brindan incre铆bles experiencias a los clientes. 鈥 Parker Harris, cofundador y director de tecnolog铆a, Salesforce

Los datos del cliente, el contenido empresarial, los datos de telemetr铆a, los chats de Slack, los datos parcialmente estructurados y otros datos estructurados y no estructurados se fusionan y conectan mediante Data Cloud, la plataforma de datos a hiperescala de Salesforce que funciona en tiempo real, para generar un perfil 煤nico del cliente. La plataforma ya vincula e integra 100 mil millones de registros diariamente y procesa 30 billones de transacciones mensuales.

Las empresas ahora pueden crear perfiles de clientes completos y unificados, ofrecer nuevas experiencias de CRM y acceder a datos fragmentados de formas completamente nuevas gracias a la integraci贸n completa de la nueva Nube de Datos con la Plataforma Einstein 1.

Referencias:

Dorian es un administrador y desarrollador certificado 4x de Salesforce con amplia experiencia en la personalizaci贸n de Salesforce seg煤n las necesidades del cliente. Comenz贸 su trayectoria en TI como administrador de CRM y mantuvo su enfoque en el ecosistema de Salesforce. Le encanta explorar nuevas integraciones en Salesforce y detectar formas alternativas de optimizar los procesos comerciales dentro del CRM. Actualmente trabaja como desarrollador de Salesforce a tiempo completo y contribuye con contenido al portal educativo SFApps.info.

Evaluaci贸n formativa:

隆Quiero saber de ti!

驴Qu茅 es lo que aprendiste de esta publicaci贸n? 驴C贸mo imagina aplicar este nuevo conocimiento en el mundo real? Si茅ntete libre de compartir en los comentarios a continuaci贸n.

Seguir leyendo

Re煤na todos los datos de sus clientes en Data Cloud 鈽侊笍

Re煤na todos los datos de sus clientes en Data Cloud 鈽侊笍

Esta es una traducci贸n que desde EGA Futura ofrecemos como cortes铆a a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoam茅rica .

El enlace a la publicaci贸n original, lo encontrar谩s al final de este art铆culo.

Re煤na todos los datos de sus clientes en Data Cloud | Blog de desarrolladores de Salesforce

En nuestras publicaciones de blog anteriores, exploramos a alto nivel qu茅 es Data Cloud para los desarrolladores. Tambi茅n exploramos algunas caracter铆sticas interesantes de Data Cloud para desarrolladores . Le mostramos c贸mocrear conocimientos calculados , c贸mo usar Apex y c贸mo cargar datos mediante programaci贸n usando la API de ingesta . En esta publicaci贸n de blog, cubriremos caracter铆sticas a煤n m谩s incre铆bles que Data Cloud tiene para ofrecer.

La nube de datos est谩 activa

Data Cloud es m谩s que un lago de datos. Es una plataforma de datos activa. Los desarrolladores pueden traer datos desde cualquier sistema, canal o flujo de datos, ya sea en flujos continuos o en lotes. Con Data Cloud, puede conectar sus datos a trav茅s de diferentes sistemas que contienen los datos de sus clientes. Data Cloud se basa en nuestra plataforma Hyperforce , lo que significa que Data Cloud puede absorber f谩cilmente grandes vol煤menes de datos. Con Hyperforce, Data Cloud es r谩pido y tambi茅n puede capturar eventos segundos despu茅s de que ocurran.

Si piensa en cu谩ntos clics hace cada cliente, el volumen de datos se expande r谩pidamente. Por ejemplo, a medida que los clientes abren y hacen clic en los correos electr贸nicos, navegan por las p谩ginas de sus aplicaciones m贸viles y miran los productos en su sitio web, puede capturar esos datos de participaci贸n a medida que ocurren. Cuando env铆a un correo electr贸nico u oferta y es relevante para la persona que lo recibe, es mucho m谩s probable que haga clic. Cuando un cliente hace clic, puede capturar la interacci贸n en Data Cloud. A continuaci贸n, puede utilizar esa informaci贸n para averiguar qu茅 les interesa y si es probable que realicen una compra o no.

La nube de datos est谩 integrada

Tener todos estos datos en tiempo real de m煤ltiples fuentes empresariales es excelente. Pero los datos no son significativos a menos que pueda usarlos. Data Cloud se conecta de forma nativa a muchos proveedores de nube, como Google Cloud Storage , Azure Storage y Amazon S3 . Data Cloud tambi茅n se conecta de forma nativa a Salesforce . Despu茅s de solo unos pocos clics, puede conectar cualquier organizaci贸n de Sandbox o de producci贸n de Salesforce a Data Cloud. Luego, Data Cloud puede ingerir cualquier objeto de Salesforce en un flujo de datos .

Despu茅s de que sus datos se ingieran en objetos de lago de datos (DLO) y se asignen a objetos de modelo de datos (DMO), un modelo de datos como el siguiente se integra din谩micamente en Data Cloud. Esto le permite ver visualmente todos los flujos de datos que est谩n creando la vista 煤nica de su cliente.

Atr谩s quedaron los d铆as en que Data Cloud era solo una plataforma de datos para marketing. Los datos almacenados en Data Cloud ahora se pueden usar en muchos sistemas. Los datos de Data Cloud se pueden usar en Amazon Ads y Google Ads mediante activaciones y objetivos de activaci贸n . Tambi茅n puede usar el conector de nube de datos nativo en Tableau para obtener nuevos conocimientos. Los aceleradores de Tableau listos para usar le permiten moverse a煤n m谩s r谩pido usando tableros y libros de trabajo predise帽ados y listos para usar. Con Data Cloud m谩s Tableau, puede cubrir f谩cilmente nuevos conocimientos sobre su negocio al reunir todos sus datos. Los desarrolladores ahora pueden incorporar estos conocimientos impulsados por IA en una aplicaci贸n de su elecci贸n.

La nube de datos est谩 automatizada

Los datos de Data Cloud tambi茅n se pueden enviar a Salesforce mediante acciones de datos y eventos de la plataforma y luego aprovecharse en flujos mediante una variedad de acciones de datos que est谩n disponibles en Salesforce Flow. Los desarrolladores pueden usar Flow para publicar informaci贸n y segmentos calculados, actualizar flujos de datos, ejecutar resoluciones de identidad e incluso activar modelos de predicci贸n. El flujo tambi茅n puede obtener datos de un objeto de modelo de datos y almacenar esa informaci贸n en una variable de colecci贸n para usarla en otras partes del flujo.

La nube de datos est谩 abierta

Data Cloud tiene muchas asociaciones estrat茅gicas con empresas como Amazon, Google, Snowflake y Meta. Estas asociaciones han ampliado la plataforma para permitir mayores posibilidades y ayudar a que sus datos sean m谩s procesables. La mejor noticia es que nuestras asociaciones est谩n creciendo constantemente, 隆y pronto habr谩 nuevas!

Recursos

Sobre los autores

Muralidhar Krishnaprasad (tambi茅n conocido como MK o Murali para abreviar) es el vicepresidente ejecutivo de ingenier铆a que ejecuta datos, ML y an谩lisis dentro de la organizaci贸n de Marketing Cloud. Se uni贸 a Salesforce hace tres a帽os y est谩 a cargo de crear, integrar y hacer crecer varios productos relacionados con datos, ML y an谩lisis. Est谩 liderando la iniciativa para repensar nuestra estrategia general de pr贸xima generaci贸n que re煤ne lo mejor de big data, ML y an谩lisis junto con nuestra plataforma para construir la base para el futuro digital.

Danielle Larregui es promotora s茅nior de desarrolladores en Salesforce, donde se enfoca en la creaci贸n de contenido de Data Cloud y Marketing Cloud. Le encanta la UI/UX, el marketing digital y la codificaci贸n. Danielle tambi茅n disfruta asistir a grupos de usuarios, conferencias comunitarias y eventos t茅cnicos de Salesforce. Puede seguirla en Twitter @dnlarregui o LinkedIn para mantenerse al d铆a con su contenido t茅cnico.

Dianne Siebold es redactora t茅cnica principal del equipo de Experiencia de contenido en Salesforce. Se especializa en desarrollo, inteligencia artificial y tecnolog铆as de integraci贸n.

Obtenga las 煤ltimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a trav茅s de Slack o RSS.

Agregar a Slack Suscr铆bete a RSS

Seguir leyendo

Traiga sus propios modelos de IA a la nube de datos 鈽侊笍

Traiga sus propios modelos de IA a la nube de datos 鈽侊笍

Esta es una traducci贸n que desde EGA Futura ofrecemos como cortes铆a a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoam茅rica .

El enlace a la publicaci贸n original, lo encontrar谩s al final de este art铆culo.

Lleve sus propios modelos de IA a la nube de datos | Blog de desarrolladores de Salesforce

Einstein Studio es una plataforma f谩cil de usar que le permite crear y poner en funcionamiento la IA en Salesforce. La plataforma aprovecha el poder de otras plataformas de IA, como Amazon SageMaker y Google Cloud Vertex AI, para que pueda crear, entrenar e implementar modelos de IA personalizados de forma externa utilizando datos en Salesforce. En este blog, presentamos Einstein Studio y exploramos c贸mo la capacidad de traer su propio modelo (BYOM) generalmente disponible puede generar resultados para su negocio.

Presentamos Traiga su propio modelo (BYOM)

Einstein Studio le permite conectarse f谩cilmente a modelos predictivos o generativos y usarlos en el flujo de trabajo en Salesforce. Por ejemplo, los modelos predictivos se pueden usar para puntuar clientes potenciales, recomendar productos o detectar abandonos. Con modelos generativos, puede crear contenido como res煤menes de casos, respuestas de correo electr贸nico y descripciones de productos. Para obtener m谩s informaci贸n sobre la IA generativa y los modelos de lenguaje extenso (LLM), consulte el blog de Salesforce 360 .

Conectar un modelo con Einstein Studio es simple. Puede integrar f谩cilmente su modelo con Data Cloud para acceder a predicciones e informaci贸n en tiempo real y usar la informaci贸n de varias maneras. Por ejemplo, para enriquecer los perfiles de los clientes, crear segmentos y personalizar la experiencia del usuario final en diferentes canales. Tambi茅n puede usar un modelo generativo para crear campa帽as de correo electr贸nico personalizadas basadas en las preferencias de un cliente y su comportamiento de compra.

驴Por qu茅 traer su propio modelo?

Estos son algunos de los beneficios de usar un modelo de Amazon SageMaker con datos de Data Cloud en Einstein Studio.

  • Acceda a datos altamente seleccionados, armonizados y casi en tiempo real en Customer 360 en SageMaker.
  • Elimina la necesidad de trabajos ETL tediosos, costosos y propensos a errores. Este enfoque de federaci贸n de copia cero para los datos reduce la sobrecarga para administrar las copias de datos, los costos de almacenamiento y mejora la eficiencia.
  • Crea modelos r谩pidamente en SageMaker y conecta los modelos en Data Cloud para consumir predicciones para la optimizaci贸n de procesos comerciales.
  • Admite la ingesta de datos en tiempo real, en streaming y por lotes para impulsar los resultados de IA relevantes.
  • Permite el uso sin inconvenientes de modelos y predicciones de SageMaker en Salesforce mediante Flow, un paquete de automatizaci贸n de flujos de trabajo. Flow permite la toma de decisiones impulsada por IA que puede evolucionar en funci贸n de actualizaciones de datos en tiempo real.

Casos de uso

Estos son algunos casos de uso en los que Einstein Studio puede mejorar la experiencia del cliente y agregar un toque personal.

Caso de uso minorista

Un minorista puede crear un modelo de IA personalizado para predecir la probabilidad de que un cliente compre atuendos espec铆ficos en funci贸n de los datos de compromiso, como su historial de compras o actividad en l铆nea. Luego pueden implementar el modelo y utilizar Einstein Studio para ofrecer recomendaciones de productos hiperpersonalizados a los clientes a trav茅s del canal m谩s apropiado, incluido el correo electr贸nico, una aplicaci贸n m贸vil o las redes sociales.

Caso de uso de viaje

Una agencia de viajes puede conectar los datos de CRM, como el historial de reservas del cliente y las preferencias de viaje, con datos que no son de CRM, como rese帽as de destinos y previsiones meteorol贸gicas. Luego pueden implementar modelos de IA predictivos y generativos para predecir qu茅 destinos atraen a clientes espec铆ficos y generar recomendaciones de correo electr贸nico personalizadas para ellos.

Caso de uso automotriz

Una marca automotriz puede usar inteligencia artificial predictiva para determinar cu谩ndo es probable que un autom贸vil necesite mantenimiento y detectar reclamos de seguros fraudulentos. Luego, la IA generativa se puede utilizar para personalizar las campa帽as de marketing de los clientes en funci贸n de las necesidades y preferencias individuales.

Flujo de trabajo de la aplicaci贸n para usar Einstein Studio con AWS SageMaker

En esta secci贸n, analizamos brevemente el flujo de trabajo de la aplicaci贸n con Einstein Studio.

En este flujo de trabajo, el conector de Python otorga a SageMaker acceso seguro a los objetos de Salesforce Data Cloud. Despu茅s de la autenticaci贸n, los especialistas en datos pueden explorar y preparar los datos, y realizar tareas de ingenier铆a de funciones para el desarrollo y la inferencia de modelos de IA mediante la interfaz visual interactiva de SageMaker Data Wrangler .

El flujo de trabajo anterior es espec铆fico de Data Wrangler. Pero, 驴qu茅 sucede si es un cient铆fico de datos y planea usar los cuadernos de SageMaker Studio para desarrollar y preparar sus modelos personalizados? Una vez que se aprueba un modelo en el registro de SageMaker, simplificamos el proceso con una plantilla de proyecto de SageMaker para Salesforce para automatizar la implementaci贸n en un extremo de invocaci贸n.

Este extremo de invocaci贸n se configura como destino en Einstein Studio y se integra con las aplicaciones de Salesforce Customer 360. Para obtener m谩s informaci贸n sobre este flujo de trabajo, consulte el blog de AWS .

C贸mo consumir predicciones de su modelo en Salesforce

Hay dos formas de consumir predicciones. Usando acciones invocables en Flow y Apex, o con an谩lisis ad hoc.

Use Flow Builder y Apex para obtener predicciones

Aqu铆 hay un flujo que usa una acci贸n invocable para crear recomendaciones de productos para un cliente.

En este ejemplo, un administrador usa Flow Builder para separar los registros de individuos unificados para verificar si se realiz贸 una compra reciente. Si se realiz贸 la compra, la acci贸n invocable obtiene la inferencia del modelo de Einstein Studio y recomienda el siguiente mejor producto a un cliente.

Esta acci贸n invocable tambi茅n se puede llamar en Apex. Vea el ejemplo a continuaci贸n.

<dx-code-block title language="apex" code-block="Invocable.Action action = Invocable.Action.createCustomAction('cdpGetMlPrediction', 'EinsteinStudio_model_name');
action.setInvocationParameter('variable_1', '10');
action.setInvocationParameter('variable2', '20');
action.setInvocationParameter('variable3', '30');
List results = action.invoke();
if (results.size() > 0 && results[0].isSuccess()) { System.debug(‘Result is: ‘ + results[0].getOutputParameters().get(‘param_score’));
} else { System.debug(‘Error message’ + results[0].getErrors());
} 芦>

Para obtener instrucciones sobre el uso de acciones invocables en Flow y Apex, consulte la Ayuda de Salesforce .

Utilice an谩lisis ad hoc para obtener predicciones

Query API es otra forma r谩pida de obtener puntajes de predicci贸n para los datos que residen en Data Cloud. Con Query API, puede usar el punto final de inferencia y funciones de predicci贸n de llamadas para probar el punto final.

Para obtener instrucciones sobre el uso de acciones invocables en QueryAPI, consulte la Ayuda de Salesforce .

Conclusi贸n

Einstein Studio es una plataforma de IA f谩cil de usar que permite a los equipos de ciencia e ingenier铆a de datos crear, entrenar e implementar modelos de IA utilizando plataformas externas y datos en Data Cloud. Las plataformas externas incluyen Amazon SageMaker, Google Cloud Vertex AI y otros servicios de IA predictivos o generativos. Una vez que est茅 listo, puede utilizar los modelos de IA en tiempo real para impulsar cualquier aplicaci贸n de ventas, servicios, marketing, comercio y otras en Salesforce.

Recursos adicionales

Sobre el Autor

Daryl Martis es el Director de Producto de Salesforce para Einstein. Tiene m谩s de 10 a帽os de experiencia en la planificaci贸n, creaci贸n, lanzamiento y gesti贸n de soluciones de clase mundial para clientes empresariales, incluidas soluciones de inteligencia artificial y aprendizaje autom谩tico y en la nube. Anteriormente trabaj贸 en la industria de servicios financieros en la ciudad de Nueva York. S铆guelo en LinkedIn o Twitter .

Obtenga las 煤ltimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a trav茅s de Slack o RSS.

Agregar a Slack Suscr铆bete a RSS

Seguir leyendo

Cargue datos mediante programaci贸n con la API de ingesta 鈽侊笍

Cargue datos mediante programaci贸n con la API de ingesta 鈽侊笍

Esta es una traducci贸n que desde EGA Futura ofrecemos como cortes铆a a toda la Ohana y comunidad de programadores , consultores , administradores y arquitectos de Salesforce para toda Iberoam茅rica .

El enlace a la publicaci贸n original, lo encontrar谩s al final de este art铆culo.

Cargue datos mediante programaci贸n con la API de ingesta | Blog de desarrolladores de Salesforce

Salesforce Data Cloud ofrece varios conectores predefinidos para la importaci贸n de datos. Estos le permiten conectar otra organizaci贸n de Salesforce, una instancia de Marketing Cloud, almacenamientos de datos como Amazon S3 o cualquier otra fuente admitida por MuleSoft Salesforce Data Cloud Connector . Para conectarse a un sistema de terceros, puede utilizar la API de ingesta .

La API de ingesta es una interfaz RESTful que facilita la carga de datos mediante programaci贸n en Data Cloud. Admite patrones de interacci贸n masiva y de transmisi贸n. El patr贸n de transmisi贸n usa JSON como su formato, cargando datos en micro lotes a trav茅s de la API REST. El patr贸n masivo, por otro lado, emplea el formato CSV y carga datos usando trabajos.

En esta publicaci贸n de blog, analizaremos c贸mo configurar el conector de la API de ingesta y comenzar a cargar datos mediante programaci贸n utilizando los patrones Streaming y Bulk.

Cu谩ndo usar la ingesti贸n Streaming vs Bulk

Ingesti贸n de transmisi贸n Ingesti贸n a granel
Al actualizar peque帽os microlotes de registros casi en tiempo real Al mover grandes vol煤menes de datos en un programa diario, semanal o mensual
Cuando se utilizan sistemas de origen de datos que se basan en arquitecturas de transmisi贸n modernas Al usar sistemas heredados, donde solo puede exportar datos durante las horas de menor actividad
Al crear eventos de captura de datos modificados Al usar una nueva organizaci贸n de Data Cloud que desea rellenar con 30, 60 o m谩s de 90 d铆as de datos
Al consumir datos de webhooks

Para configurar la API de ingesta, deber谩 seguir cuatro pasos de requisitos previos:

  • Crear un conector de API de ingesta
  • Crear e implementar un flujo de datos
  • Crear una aplicaci贸n conectada
  • Solicitar un token de acceso a la nube de datos

Veamos el proceso de creaci贸n y configuraci贸n de un conector de ingesta para comenzar a cargar datos en Data Cloud.

Creaci贸n de un conector de API de ingesta

Supongamos que tiene acceso a Data Cloud. Para conectar una nueva fuente de API de ingesta mediante el conector de API de ingesta, vaya a Configuraci贸n de nube de datos y seleccione API de ingesta .

Aqu铆 encontrar谩 todos los conectores disponibles en su organizaci贸n. Para crear uno nuevo, haga clic en Conectar y proporcione un nombre. Para nuestra aplicaci贸n de muestra, trabajaremos con una empresa de energ铆a solar ficticia. Estamos interesados en recibir eventos de m茅tricas relacionadas con el rendimiento energ茅tico de sus paneles solares.

Una vez que se haya creado el conector, necesitaremos decirle a Data Cloud qu茅 tipo de datos estamos esperando. Para esto, necesitaremos cargar un archivo de esquema utilizando la especificaci贸n OpenAPI. Este archivo de esquema tiene requisitos espec铆ficos, as铆 que aseg煤rese de consultar la documentaci贸n para obtener m谩s informaci贸n.

A continuaci贸n se muestra un ejemplo del archivo de esquema que cargaremos, que representa un solar_panel_event . Los campos clave a tener en cuenta incluyen event_id , que ser谩 煤nico para cada evento y luego se asignar谩 en Data Cloud como clave principal. Otro es customer_id , que nos ser谩 煤til para mapear el evento con un cliente de nuestra organizaci贸n. Finalmente, date_time representa la hora del evento.

panel_solar_event.yaml

Una vez que carguemos el esquema, podremos obtener una vista previa de sus campos y tipos de datos, y luego guardarlo en nuestro conector.

Ahora que nuestro conector tiene un esquema, podemos decir que est谩 creado. Sin embargo, a煤n no est谩 listo para comenzar a recibir datos. Necesitamos crear un flujo de datos para este prop贸sito.

Nota: Dado que los esquemas pueden evolucionar con el tiempo, tambi茅n puede usar la interfaz del conector de la API de ingesta para actualizar el esquema y agregar nuevos campos a su objeto de datos seg煤n sea necesario.

Creaci贸n e implementaci贸n de un flujo de datos

Ya tenemos listo nuestro conector API de ingesta. Ahora es el momento de establecer una conexi贸n para comenzar a importar datos. Para eso, necesitamos crear un flujo de datos . Una vez que el flujo de datos est谩 activo, podemos comenzar a ingerir datos en Data Cloud y almacenarlos como un objeto de Data Lake.

Para crear un nuevo flujo de datos, vaya a su pesta帽a en la aplicaci贸n Data Cloud, haga clic en Nuevo , seleccione Ingestion API y luego haga clic en Siguiente .

Nota: La opci贸n API de ingesta est谩 deshabilitada si no tiene ninguna fuente de ingesta conectada.

A continuaci贸n, ver谩 los diferentes objetos que est谩n asociados con su esquema. En nuestro caso, seleccione el objeto solar_panel_event y haga clic en Siguiente .

Al crear un flujo de datos, deber谩 seleccionar una categor铆a o tipo de datos en ese flujo de datos. Hay tres categor铆as: Compromiso , Perfil y Otro .

Compromiso Un conjunto de datos que representa un compromiso basado en series de tiempo, como un evento, interacci贸n con el cliente, interacci贸n web, etc.

Cuando se selecciona, el men煤 desplegable Campo de hora del evento aparece en la interfaz de usuario.

Perfil Un conjunto de datos que representa:

鈥 Una lista de consumidores con identificadores, como identificaciones de consumidores, direcciones de correo electr贸nico o n煤meros de tel茅fono

鈥 Una lista de empresas o cuentas con ID de cuenta

鈥 Una lista de empleados o cualquier otra poblaci贸n por la que desee segmentar o utilizar como poblaci贸n inicial del segmento

Otro Un conjunto de datos que no es un compromiso o un perfil, como informaci贸n de productos o tiendas.

Para nuestro ejemplo, dado que estamos planeando recibir eventos, seleccionaremos Compromiso . Mapearemos el event_id como la clave principal y la date_time como el campo de hora del evento.

Ahora que nuestros datos est谩n configurados, es hora de implementarlos. Despu茅s de revisar los flujos de datos que se van a crear, hagamos clic en Implementar para activarlos.

Ahora, echemos un vistazo a la p谩gina de detalles del flujo de datos. Aqu铆 podemos ver el objeto Data Lake que se ha creado en Data Cloud. Puede identificar un objeto de Data Lake por su sufijo __dll . Desde esta misma interfaz, puede comenzar a asignar sus datos a los objetos de su organizaci贸n para crear objetos de modelo de datos (parte del proceso de armonizaci贸n de Data Cloud). Sin embargo, no cubriremos ese tema en esta publicaci贸n de blog, pero tenemos un excelente video con Danielle Larregui que le muestra c贸mo hacerlo.

Nuestro conector API de ingesta est谩 listo para comenzar a recibir datos de sistemas de terceros. Para confirmar, regresemos a la interfaz de configuraci贸n de la API de ingesta, donde puede ver que el estado del conector es En uso .

Creaci贸n de una aplicaci贸n conectada

La API de ingesta admite todos los flujos de OAuth 2.0 admitidos por otras API REST de Salesforce. Para cargar datos mediante la API de ingesta, su aplicaci贸n conectada requiere los siguientes 谩mbitos:

脕mbitos de OAuth requeridos

cdp_ingest_api Acceda y administre sus datos de API de ingesta de nube de datos
API Accede y administra tus datos
refresco_token, acceso_sin conexi贸n Realizar solicitudes en su nombre en cualquier momento

Adem谩s, nuestra aplicaci贸n conectada requerir谩 un certificado digital. Para crear uno, puede ejecutar el siguiente comando usando el comando openssl :

Este comando crear谩 dos archivos, salesforce.key , que es la clave privada, y salesforce.crt , que es la clave p煤blica.

Nota : si no tiene instalado el comando openssl , puede instalarlo desde el sitio web de OpenSSL .

Para saber c贸mo crear una aplicaci贸n conectada, consulte la documentaci贸n oficial.

Solicitud de un token de acceso a la nube de datos

Para este ejemplo, usaremos el flujo de soporte JWT de OAuth 2.0 . Primero, necesitaremos crear un JWT (JSON Web Token) para solicitar un token de acceso.

Para crear un JWT, configurar谩 el encabezado para usar el algoritmo RSA256 .

Encabezado JWT

Luego, configure las siguientes notificaciones, teniendo en cuenta algunas notificaciones importantes:

  • iss: la clave de consumidor de OAuth/ID de cliente de su aplicaci贸n conectada
  • sub: el nombre de usuario de su organizaci贸n de Data Cloud
  • exp: el tiempo de vencimiento del token, expresado como una marca de tiempo de 茅poca

reclamos JWT

Nota : La 茅poca de Unix (o la hora de Unix o la hora POSIX o la marca de tiempo de Unix) es la cantidad de segundos que han transcurrido desde el 1 de enero de 1970 (medianoche UTC/GMT).

A continuaci贸n, deber谩 utilizar el algoritmo JWT para obtener el token completo y verificado.

Pero seamos honestos, no queremos crear un JWT manualmente. Para esto, utilizaremos el sitio web JWT.io para simplificar el proceso. Aseg煤rese de que el mensaje Firma verificada aparezca a continuaci贸n, lo que indica que nuestro JWT es v谩lido.

O puede crearlo program谩ticamente usando el lenguaje de programaci贸n de su elecci贸n. M谩s adelante en este art铆culo, compartir茅 un pr谩ctico script de Node.js para generar el token de acceso a la nube de datos.

Antes de que podamos autenticarnos usando el JWT que generamos, debemos aprobar este consumidor. Puede hacerlo abriendo la siguiente URL en su navegador.

<dx-code-block title language code-block="https://login.salesforce.com/services/oauth2/authorize?response_type=token&client_id=&redirect_uri=禄>

Y luego, inicie sesi贸n y permita el acceso:

Ahora que hemos aprobado nuestro JWT, necesitamos autenticarnos. Este es un proceso de dos pasos. Primero, necesitamos obtener un token de acceso usando el JWT. Para hacer esto, realicemos una solicitud POST HTTP con la siguiente informaci贸n.

<dx-code-block title language code-block="POST https://login.salesforce.com/services/oauth2/token
Content-Type : x-www-form-urlencoded
grant_type=urn:ietf:params:oauth:grant-type:jwt-bearer
&assertion=禄>

Nota: aseg煤rese de reemplazar <JWT> con el token que creamos anteriormente.

Esta solicitud nos dar谩 un token de acceso central y la URL de la instancia de Data Cloud, utilizando nuestra aplicaci贸n conectada. Como se muestra en el alcance , se nos otorgan los alcances cdp_ingest_api y api .

A continuaci贸n, debemos cambiar el token de acceso principal por un token de nube de datos. Para hacer eso, realicemos la siguiente solicitud POST.

<dx-code-block title language code-block="POST /services/a360/token Content-Type : x-www-form-urlencoded grant_type=urn:salesforce:grant-type:external:cdp &subject_token= &subject_token_type=urn:ietf:params:oauth:token-type:access_token禄>

Ahora, estamos autenticados. El token de acceso a la nube de datos resultante es lo que usaremos para realizar solicitudes a la API de ingesta.

Para simplificar el proceso, he creado un script Node.js. Crea el JWT y realiza la autenticaci贸n en dos pasos. Para usarlo, necesitar谩 la clave privada que cre贸 anteriormente, as铆 como un archivo de configuraci贸n similar al siguiente.

config.js

Adem谩s, instale la dependencia jsonwebtoken desde npm ejecutando:

credenciales.js

console.log(auth)) .catch((err) => console.error(err)); 芦>

El m茅todo generateAccessToken devolver谩 el objeto de autenticaci贸n de Data Cloud, incluido el access_token y la instance_url necesarios para comenzar a ingerir datos en Data Cloud.

Ingesta de datos

Tenemos toda la informaci贸n necesaria para comenzar a ingerir datos en la nube de datos. Esto se puede lograr utilizando los patrones Streaming o Bulk.

Transmisi贸n

Para comenzar a transmitir datos en el conector de Ingesti贸n de nube de datos, primero obtenga el nombre del conector y el nombre del objeto de la configuraci贸n del conector de la API de Ingesti贸n. Para hacer esto, puede realizar una solicitud POST como la siguiente.

<dx-code-block title language code-block="POST https:///api/v1/ingest/sources/Solar_Panel_Events/solar_panel_event
Authorization: Bearer
Content-Type: application/json
{ "data": [ {"event_id": "f47ac10b-58cc-4372-a567-0e02b2c3d479","customer_id": "003R00000123456789","battery": 75.2,"dc_current": 9.8,"dc_voltage": 35.6,"mpp_energy": 120.5,"ac_voltage": 220.1,"ac_current": 5.3,"date_time": "2023-07-07T10:15:30.05Z"} ] }禄>

Nota : aseg煤rese de reemplazar <token de acceso a la nube de datos> y <url de instancia> con los valores respectivos que obtuvo del proceso de autenticaci贸n.

Si todo va bien, recibir谩s la siguiente respuesta:

Esto indica que nuestros datos han sido aceptados con 茅xito.

Nota : tambi茅n puede validar los datos con el esquema antes de enviarlos agregando /actions/test al punto final de la API.

A granel

La ingesti贸n masiva implica varios pasos, lo que agrega un nivel de complejidad al proceso:

  • Crear un trabajo: este paso implica crear un trabajo para especificar el tipo de objeto de los datos que se procesan y la operaci贸n que se realizar谩, que puede ser upsert o delete.
  • Cargar los datos en CSV: Despu茅s de crear el trabajo, el siguiente paso es cargar los datos en formato CSV. El archivo CSV debe contener los datos que se procesar谩n, con cada fila representando un registro y las columnas que contienen los valores de campo.
  • Indicar la preparaci贸n de los datos: una vez que se cargan los datos, deber谩 indicar que los datos est谩n listos para ser procesados.
  • Cerrar o cancelar el trabajo: despu茅s de procesar los datos, puede cerrar el trabajo para marcarlo como completado o cancelar el trabajo si es necesario.

Para obtener m谩s informaci贸n sobre c贸mo usar los puntos de conexi贸n masivos, puede consultar la documentaci贸n oficial .

Puede consultar los datos entrantes utilizando el Explorador de datos en Data Cloud. All铆, seleccionar谩 el objeto Data Lake correspondiente al conector de ingesta que cre贸 anteriormente.

Si desea probarlo usted mismo, siempre puede utilizar nuestra colecci贸n Postman de desarrolladores de Salesforce, que incluye las API de Salesforce Data Cloud .

Conclusi贸n

Ahora, est谩 listo para comenzar a cargar datos mediante programaci贸n en Data Cloud mediante la API de ingesta. Siguiendo los pasos anteriores, puede conectarse sin problemas a varias fuentes de datos e importar datos en tiempo real o en masa, y comenzar a aprovechar el poder y la magia de Salesforce Data Cloud.

Adem谩s, si prefiere aprender de un video, mi colega Aditya ha creado un video 煤til que explica lo que hemos cubierto en esta publicaci贸n de blog . Aseg煤rese de ver tambi茅n los otros excelentes videos de la serie Data Cloud Decoded .

Recursos

Sobre los autores

Juli谩n Duque es un defensor principal de desarrolladores en Salesforce, donde se enfoca en Node.js, JavaScript y desarrollo backend. Le apasiona la educaci贸n y el intercambio de conocimientos y ha estado involucrado en la organizaci贸n de comunidades tecnol贸gicas y de desarrolladores desde 2001.

S铆galo @julianduque en Threads, @julian_duque en Twitter, @julianduque.co en Bluesky social o LinkedIn .

Aditya Naag Topalli es una defensora de desarrolladores l铆der certificada 14 veces en Salesforce. Capacita e inspira a los desarrolladores dentro y fuera del ecosistema de Salesforce a trav茅s de sus videos, seminarios web, publicaciones de blog y contribuciones de c贸digo abierto, y tambi茅n habla con frecuencia en conferencias y eventos en todo el mundo. S铆galo en Twitter o LinkedIn y vea sus contribuciones en GitHub .

Obtenga las 煤ltimas publicaciones de blog de desarrolladores de Salesforce y episodios de podcast a trav茅s de Slack o RSS.

Agregar a Slack Suscr铆bete a RSS

Seguir leyendo