INDICT: Hacia una mejor generación de código tanto por su seguridad como por su utilidad

TL;DR: Presentamos INDICT, un novedoso marco que dota a los Grandes Modelos de Lenguaje (LLMs) de Diálogos Internos de Críticas para la orientación tanto en seguridad como en utilidad. El diálogo interno es un sistema cooperativo dual entre un crítico orientado a la seguridad y un crítico orientado a la utilidad, cada uno equipado con conocimientos relevantes de herramientas externas.


LLMs

Seguir leyendo

HIVE: Aprovechamiento de la retroalimentación humana para la edición visual didáctica

HIVE ha sido aceptado en CVPR 2024.

Otros autores son: Chia-Chih Chen, Ning Yu, Zeyuan Chen, Huan Wang, Silvio Savarese, Stefano Ermon, Caiming Xiong

Hemos visto el éxito de ChatGPT, que incorpora feedback humano para alinear el texto generado por grandes modelos lingüísticos con las preferencias humanas. ¿Es posible alinear

Seguir leyendo

Haga que tenga sentido: SFR-Embedding de Salesforce AI Research, el modelo de Text-Embedding de mayor rendimiento

¿Cómo puede un ordenador discernir el significado de una frase? Por «discernir su significado» me refiero a comprender las palabras de la frase, su contexto, sus matices y sus relaciones con otras palabras.

Seguir leyendo

Conozca a las mujeres pioneras de la IA en Salesforce y eche un vistazo a lo más destacado de nuestro Día de las mujeres en la IA.

Para celebrar el Mes de la Historia de la Mujer, la Red de Mujeres de Salesforce organizó su evento inaugural del Día de la Mujer en la IA el 26 de marzo de 2024 en la Torre Salesforce de San Francisco. El evento fue una reunión de mujeres de Salesforce que lideran el trabajo sobre IA ética y responsable en Salesforce.

Seguir leyendo

Investigación NLG de confianza @ Salesforce AI

Aunque en los últimos años hemos visto mejoras asombrosas en el rendimiento de los modelos, debemos ser conscientes de los inconvenientes que aún presentan. Creemos que la mejora conjunta de estos modelos, así como la evolución de nuestros enfoques para evaluarlos, es esencial de cara al futuro.

Seguir leyendo

Moirai: Un modelo básico de series temporales para la previsión universal

TL;DR: Moirai es un modelo fundacional de series temporales de vanguardia, que ofrece capacidades de previsión universales. Destaca como un modelo versátil de previsión de series temporales capaz de abordar diversas tareas de previsión a través de múltiples dominios, frecuencias y variables de una manera zero-shot.  Para lograrlo, Moirai aborda cuatro grandes retos: (i)

Seguir leyendo

Más allá de los nombres: Cómo la investigación en IA está revolucionando la resolución de identidades en la nube de datos

Estamos encantados de anunciar la integración de la concordancia difusa en todas las funciones del objeto de contacto, proporcionando a los clientes las soluciones a medida que necesitan.

Seguir leyendo

SFR-Embedding-Mistral: Mejora de la recuperación de textos con aprendizaje por transferencia

El SFR-Embedding-Mistral supone un avance significativo en los modelos de incrustación de textos y se basa en los sólidos cimientos de E5-mistral-7b-instruct y Mistral-7B-v0.1.

Seguir leyendo

BootPIG: Bootstrapping Zero-shot Personalized Image Generation Capabilities in Pretrained Diffusion Models (Capacidad de generación de imágenes personalizadas de disparo cero en modelos de difusión preentrenados)

Presentamos una arquitectura novedosa, BootPIG, que permite la generación de imágenes personalizadas sin necesidad de ajuste fino en tiempo de prueba.

Seguir leyendo

Adaptar los modelos de difusión a las preferencias humanas

TLDR

El aprendizaje a partir de preferencias humanas, concretamente el Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF) ha sido un componente reciente clave en el desarrollo de grandes modelos lingüísticos como ChatGPT o Llama2. Hasta hace poco, el impacto del entrenamiento a partir de la retroalimentación humana en los modelos texto-imagen era mucho más limitado. En este trabajo, Diffusion-DPO,

Seguir leyendo

Modelado de secuencias largas con XGen: Un LLM de 7B entrenado con secuencias de entrada de 8K de longitud

TLDR

Entrenamos una serie de LLMs 7B llamados XGen-7B con atención densa estándar hasta 8K de longitud de secuencia para hasta 1.5T tokens. También afinamos los modelos en datos de instrucción de dominio público. Los principales resultados son:

  • En pruebas de PNL estándar, XGen consigue resultados comparables o mejores
Seguir leyendo

CodeGen2.5: pequeño, pero poderoso

Contribución equitativa entre Erik Nijkamp y Hiroaki Hayashi.

Paper
Code
Tweet

Abstract

La familia de modelos CodeGen de Salesforce crece con CodeGen2.5 – ¡un modelo pequeño, pero poderoso! Mientras que ha habido una tendencia reciente de grandes modelos de lenguaje (LLM) de tamaño cada vez mayor, mostramos que un modelo pequeño

CodeGen2.5 – pequeño pero poderoso

Seguir leyendo

PyRCA: Facilitar el análisis de causa raíz en AIOps

TL;DR:PyRCA es una biblioteca de aprendizaje automático de código abierto diseñada específicamente para realizar análisis de causa raíz (RCA) en operaciones de TI. Ofrece un marco integral que permite a los usuarios identificar fácilmente las dependencias causales métricas complicadas y localizar automáticamente las causas raíz de los incidentes. La biblioteca proporciona una interfaz unificada

Seguir leyendo

Prototipos XGen-Image-1

TLDR

Los métodos de IA generativa para la generación de imágenes tienen una amplia variedad de aplicaciones potenciales en marketing, ventas y comercio electrónico. Con estas aplicaciones en mente, el equipo de Salesforce Research ha desarrollado varias técnicas basadas en modelos de difusión de generación de imágenes, incluyendo métodos para la edición de imágenes, guía mejorada de clasificadores y métodos mejorados de generación controlada

Seguir leyendo

El código abierto y el futuro de la IA empresarial

Introducción

El código abierto se ha convertido en uno de los temas más candentes de la IA, y la fanfarria es bien merecida. La comunidad de código abierto mantiene un ritmo ágil con el estado de la técnica, ofreciendo modelos cada vez mayores y más capaces que a menudo compiten de forma impresionante con sus homólogos comerciales. Es una época apasionante

Seguir leyendo

El poder cada vez mayor de los modelos pequeños

La reciente cobertura mediática de la IA ha seguido un patrón familiar: se lanza un nuevo modelo masivo, que se da a conocer a los beta testers y, finalmente, al público, pero apenas pasan uno o dos meses antes de que empiecen a surgir rumores sobre el modelo aún mayor que supuestamente se está formando para sustituirlo.

La IA se ha convertido en una de las tecnologías más populares del mundo

Seguir leyendo

GlueGen: Codificadores multimodales Plug and Play para la generación de imágenes X a X

Otros autores son: Can Qin, Stefano Ermon, Yun Fu

GlueGen fue aceptado por el ICCV.

En el campo de la síntesis de texto a imagen, que avanza con rapidez, los notables progresos en la generación de imágenes realistas a partir de indicaciones textuales han sido evidentes. Sin embargo, sigue existiendo un reto importante: ¿cómo podemos integrar a la perfección potentes codificadores de texto preentrenados en

sistemas de síntesis de texto a imagen?

Seguir leyendo

12 días de contenido de la Oficina de Ética y Derechos Humanos de Salesforce

Hace casi 5 años, se inauguró la Oficina de Uso Ético y Humano, con el objetivo de lograr la excelencia ética de los productos de Salesforce. Lo celebramos publicando 12 días de nuestro mejor contenido sobre uso ético.

Seguir leyendo

Uso de modelos lingüísticos para diseñar anticuerpos contra enfermedades autoinmunes

TL;DR: Adaptamos nuestro modelo de lenguaje de proteínas ProGen para optimizar anticuerpos que se unen a una proteína llamada “CD40L”, un objetivo crítico para los trastornos autoinmunes. Probamos nuestros anticuerpos diseñados con IA en el laboratorio y descubrimos que se unían muy estrechamente a CD40L, lo que demuestra el potencial de este modelo

Seguir leyendo

¡Estamos contratando! Funciones de IA de confianza en Salesforce

Conozca la Oficina de uso ético y humano

La Oficina de uso ético y humano de Salesforce proporciona una guía de navegación para las preguntas difíciles que surgen cuando el potencial humano se encuentra con la tecnología emergente. Trabajamos en toda la empresa para guiar el diseño, el desarrollo y la implantación de productos fiables, con un fuerte

enfoque en la ética y el uso humano

Seguir leyendo

Investigación de Salesforce en NeurIPS 2023

Resumen de la conferencia

La semana que viene se celebrará en Nueva Orleans, Luisiana, la trigésimo séptima Conferencia anual sobre Sistemas de Procesamiento de Información Neuronal (NeurIPS), del domingo 10 al sábado 16 de diciembre. NeurIPS incluirá charlas invitadas, demostraciones y presentaciones orales y en póster de los trabajos aceptados. NeurIPS 2023 se celebrará de nuevo en el

Sede de la Universidad de Nueva Orleans

Seguir leyendo

CodeChain: Hacia la generación de código modular mediante una cadena de autorrevisiones y submódulos representativos

TL;DR: Con CodeChain, un gran modelo de lenguaje (LLM) preentrenado puede resolver problemas de codificación desafiantes integrando la modularidad en muestras de generación y auto-mejorarse empleando una cadena de auto-revisiones en submódulos representativos. CodeChain puede lograr resultados de vanguardia tanto con los modelos GPT de OpenAI como con los LLM de código abierto en pruebas de codificación exigentes como

Seguir leyendo