2023 fue un gran a帽o para los desarrolladores de Salesforce. Hubo un mont贸n de nuevas funciones interesantes, grandes mejoras en cosas como Lightning Web Components y, por supuesto, un mont贸n de nuevas herramientas y capacidades que aprovechan la Inteligencia Artificial. Todos los a帽os, en enero, celebramos los mejores contenidos destacados del a帽o anterior y se los traemos […]
La versi贸n Spring ’24 ya est谩 aqu铆, y estos son algunos de los aspectos m谩s destacados de la versi贸n, que detallan las novedades para los desarrolladores de todo el ecosistema de Salesforce.
Aprenda sobre la funci贸n Data Actions de Data Cloud y recorra c贸mo ampliar un webhook como objetivo para visualizar e impulsar los resultados empresariales.
Los eventos webhook se pueden utilizar para la visualizaci贸n
El versionado de la API de LWC es una excelente forma de garantizar la compatibilidad con versiones anteriores de los componentes existentes y, al mismo tiempo, permitir que los nuevos componentes adopten las nuevas caracter铆sticas.
Ha llegado el momento de pasar de la herramienta de migraci贸n Ant a la experiencia de desarrollador m谩s moderna y con soporte oficial mediante la CLI de Salesforce.
Las herramientas de migraci贸n Ant y la CLI de Salesforce son las dos herramientas que mejor se adaptan a sus necesidades
Nuestra serie Dev Spotlight explora las vidas de desarrolladores individuales mientras comparten su viaje para convertirse en desarrolladores de Salesforce y lo que significa formar parte de nuestra comunidad mundial.
La serie Dev Spotlight explora las vidas de desarrolladores individuales mientras comparten su viaje para convertirse en desarrolladores de Salesforce y lo que significa formar parte de nuestra comunidad mundial
El shadow DOM nativo har谩 que tus componentes LWC est茅n m谩s alineados con los est谩ndares web, las nuevas caracter铆sticas de los navegadores y un rendimiento mejorado.
Construya pruebas de extremo a extremo r谩pidamente con dos elementos que hacen grande a UTAM: los objetos de p谩gina base (PO) y la extensi贸n UTAM para Chrome.
Los objetos de p谩gina base (PO) y la extensi贸n UTAM para Chrome son dos elementos que hacen grande a UTAM
CodeGen, parte de la propia familia de modelos de lenguaje de gran tama帽o (LLM) de Salesforce, es un LLM de c贸digo abierto para la comprensi贸n y generaci贸n de c贸digo.
CodeGen, parte de la propia familia de modelos de lenguaje de gran tama帽o (LLM) de Salesforce
Recorre una lista de herramientas para utilizar DataWeave en diferentes escenarios, desde una aplicaci贸n de Mule con arrastrar y soltar hasta una herramienta de l铆nea de comandos.
Nuestra serie Dev Spotlight explora las vidas de desarrolladores individuales mientras comparten su viaje para convertirse en desarrolladores de Salesforce y lo que significa formar parte de nuestra comunidad mundial.
La serie Dev Spotlight explora las vidas de desarrolladores individuales mientras comparten su viaje para convertirse en desarrolladores de Salesforce y lo que significa formar parte de nuestra comunidad mundial
Combine varias llamadas a la API en una 煤nica llamada a la API para simplificar su c贸digo y reducir el n煤mero de llamadas a la API que se contabilizan en su l铆mite diario.
Las consultas SOQL anidadas son una forma de simplificar su c贸digo
Una visi贸n general del aprendizaje autom谩tico, dos tipos populares de ML, y la clasificaci贸n de bosque aleatorio, un modelo de ML popular utilizado por los cient铆ficos de datos.
La clasificaci贸n de bosque aleatorio, un modelo de ML popular utilizado por los cient铆ficos de datos
En los 煤ltimos meses he escrito mucho sobre lo que yo llamo Large Action Models, o LAMs, una variaci贸n m谩s activa y aut贸noma de los LLMs que no se limitan a generar contenido como texto o im谩genes, sino que realizan tareas completas e incluso participan en flujos de trabajo, ya sea junto a personas
UniControl es aceptado en NeurIPS’23. 驴Es posible que un 煤nico modelo domine el arte de crear im谩genes a partir de bocetos, mapas, diagramas y mucho m谩s? Aunque los generadores de texto a imagen basados en la difusi贸n, como DALL-E-3, han mostrado resultados notables a partir de instrucciones en lenguaje natural, lograr un control preciso de los dise帽os, los l铆mites y la geometr铆a sigue siendo un reto utilizando s贸lo descripciones de texto. Ahora, los investigadores han desarrollado UniControl, un modelo unificado capaz de manejar diversas condiciones visuales que van desde los bordes hasta los mapas de profundidad dentro de un marco unificado.
Background
La s铆ntesis de texto a imagen (T2I) se ha disparado recientemente gracias a los avances en modelos generativos profundos. Sistemas como DALL-E 2, Imagen y Stable Diffusion pueden generar ahora im谩genes de gran realismo fotogr谩fico controlables mediante instrucciones de lenguaje natural. Estos avances se basan en modelos de difusi贸n que han demostrado ser extremadamente eficaces para la generaci贸n de texto a imagen.
Sin embargo, el control mediante indicaciones de texto apenas es preciso para los atributos espaciales, estructurales y geom茅tricos. Por ejemplo, pedir 芦a帽adir un gran cubo morado禄 depende de la comprensi贸n impl铆citamente aprendida del modelo sobre la geometr铆a 3D. Enfoques recientes como ControlNet han introducido el condicionamiento a se帽ales visuales adicionales, como mapas de segmentaci贸n o detecciones de bordes. Esto permite un control expl铆cito de las regiones de la imagen, los l铆mites, la ubicaci贸n de los objetos, etc.
Pero cada modelo ControlNet s贸lo maneja una condici贸n visual espec铆fica, como los bordes o los mapas de profundidad. Para ampliar las capacidades es necesario un reentrenamiento exhaustivo. La compatibilidad con diversas entradas controlables requiere el desarrollo de modelos especializados para cada tarea. Esto sobrecarga los par谩metros, limita el intercambio de conocimientos y dificulta la adaptaci贸n entre modalidades o la generalizaci贸n fuera del dominio.
Motivaci贸n
Existe una necesidad acuciante de modelos unificados que puedan manejar diversas condiciones visuales para la generaci贸n controlable. La consolidaci贸n de las capacidades en un 煤nico modelo mejorar铆a enormemente la eficiencia de la formaci贸n y el despliegue sin necesidad de m煤ltiples modelos espec铆ficos para cada tarea. Tambi茅n permite explotar las relaciones entre condiciones, como la profundidad y la segmentaci贸n, para mejorar la calidad de la generaci贸n.
Por ejemplo, la estimaci贸n de la profundidad depende en gran medida de la comprensi贸n de la segmentaci贸n sem谩ntica y el dise帽o global de la escena. Un modelo unificado puede aprovechar mejor estas relaciones en comparaci贸n con los modelos de tareas aisladas. Adem谩s, a帽adir nuevas modalidades a modelos individuales conlleva un reentrenamiento masivo, mientras que un enfoque consolidado podr铆a generalizarse sin problemas.
El principal reto consiste en superar el desajuste entre diversas condiciones como bordes, poses, mapas, etc. Cada una de ellas requiere operaciones especializadas en funci贸n de sus caracter铆sticas. Mezclar trivialmente diversas entradas en un modelo falla debido a este desajuste de caracter铆sticas. El objetivo es desarrollar una arquitectura unificada que generalice las tareas y adapte sus componentes condicionantes. Y lo que es m谩s importante, esto debe lograrse sin necesidad de un reentrenamiento exhaustivo cada vez que se ampl铆en las capacidades.
Methods
El UniControl propuesto introduce dos nuevos componentes para permitir la generaci贸n unificada controlable multitarea:
1. Adaptadores de Mezcla de Expertos. Adaptadores de mezcla de expertos: M贸dulos convolucionales paralelos, uno por tarea, que se adaptan a las caracter铆sticas visuales de cada condici贸n.
2. Task-Aware HyperNetwork: Modula din谩micamente los n煤cleos de convoluci贸n de un modelo base en funci贸n de las instrucciones de la tarea.
UniControl se ha entrenado en doce tareas distintas que abarcan bordes, regiones, mapas y mucho m谩s. La arquitectura general del modelo se mantiene constante en todas las tareas, mientras que los componentes de acondicionamiento se especializan.
Adaptadores-mezcla-de-expertos
Los adaptadores proporcionan v铆as espec铆ficas para que cada tarea procese sus caracter铆sticas visuales de forma adecuada. De este modo se supera el desajuste entre diversas condiciones que necesitan un tratamiento especializado.
Por ejemplo, una ruta de mapa de segmentaci贸n se centra m谩s en las relaciones sem谩nticas espaciales que en la geometr铆a 3D. Por el contrario, un adaptador de profundidad har谩 hincapi茅 en la disposici贸n global y las orientaciones de las superficies. Con adaptadores separados por tarea, UniControl puede extraer representaciones matizadas adaptadas a cada tipo de entrada.
Esta modularizaci贸n imita una mezcla de expertos. Cada adaptador act煤a como un 芦experto禄 especializado para su tarea. Las v铆as paralelas evitan los objetivos contradictorios que surgir铆an de un manejo enredado de todas las condiciones. El modelo compone din谩micamente las salidas de los adaptadores relevantes en funci贸n de la tarea de entrada.
Hiperred consciente de la tarea
La hiperred permite la modulaci贸n din谩mica de UniControl en funci贸n de la tarea especificada. Introduce instrucciones como 芦mapa de profundidad a imagen禄 y emite vectores de incrustaci贸n. Estas incrustaciones pueden especializar el modelo modulando sus n煤cleos de convoluci贸n en funci贸n de la tarea.
Por ejemplo, el condicionamiento de la profundidad puede modular las primeras capas para centrarse m谩s en el dise帽o global y la geometr铆a. Mientras tanto, la adaptaci贸n de los bordes puede enfatizar los detalles de mayor frecuencia en las etapas posteriores. La hiperred permite a UniControl aprender la comprensi贸n y el procesamiento especializados de cada tarea y, al condicionar las instrucciones, tambi茅n permite la generalizaci贸n a nuevas tareas en el momento de la prueba. Las relaciones aprendidas durante el entrenamiento multitarea permiten una modulaci贸n sensible incluso para tareas desconocidas. La composici贸n de incrustaciones de tareas conocidas relacionadas facilita la transferencia sin disparos.
Experimentos
UniControl se entren贸 en un conjunto de datos MultiGen-20M con m谩s de 20 millones de tripletas imagen-texto-condici贸n. Los principales resultados demostraron:
Supera a ControlNets de una sola tarea en la mayor铆a de las tareas, benefici谩ndose del entrenamiento conjunto. El dise帽o unificado mejora la eficiencia.
Se generaliza a tareas h铆bridas no vistas como profundidad+pose sin reentrenamiento mediante la composici贸n de adaptadores.
UniControl mantiene 1,4B par谩metros mientras que un conjunto de modelos de una sola tarea (es decir, Multi-ControlNet) requerir铆a m谩s de 4B par谩metros.
La transferencia de cero disparos a nuevas tareas como la coloraci贸n y el inpainting se consigue mezclando adaptadores de tareas relacionadas.
La plataforma Salesforce es muy potente. Con cada nueva versi贸n, su org se vuelve m谩s potente, pero tambi茅n m谩s compleja. Como le dijeron una vez a Spiderman: 芦un gran poder conlleva una gran responsabilidad禄. Entonces, 驴c贸mo puede asumir la responsabilidad real de mantener su organizaci贸n? Con todo lo dem谩s que tiene que hacer, documentar sus cambios es probablemente bajo en […]
El post Gu铆a completa para la documentaci贸n de Salesforce (en un mundo de IA) appeared first on Salesforce Ben.