HIVE: Aprovechamiento de la retroalimentación humana para la edición visual didáctica

HIVE ha sido aceptado en CVPR 2024.

Otros autores son: Chia-Chih Chen, Ning Yu, Zeyuan Chen, Huan Wang, Silvio Savarese, Stefano Ermon, Caiming Xiong

Hemos visto el éxito de ChatGPT, que incorpora feedback humano para alinear el texto generado por grandes modelos lingüísticos con las preferencias humanas. ¿Es posible alinear

Seguir leyendo

5 usos empresariales de un copiloto de IA

He aquí cinco ejemplos específicos del sector sobre cómo un copiloto de IA puede facilitarte la vida laboral.

Seguir leyendo

Cómo liberar el poder de la IA generativa sin crear su propio LLM

Los grandes modelos lingüísticos son la base de las revolucionarias aplicaciones de IA actuales. En lugar de entrenar un LLM en un conjunto de datos masivo, ahorre tiempo utilizando un modelo existente con indicaciones inteligentes basadas en sus datos. He aquí cómo.

Seguir leyendo

Adaptar los modelos de difusión a las preferencias humanas

TLDR

El aprendizaje a partir de preferencias humanas, concretamente el Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF) ha sido un componente reciente clave en el desarrollo de grandes modelos lingüísticos como ChatGPT o Llama2. Hasta hace poco, el impacto del entrenamiento a partir de la retroalimentación humana en los modelos texto-imagen era mucho más limitado. En este trabajo, Diffusion-DPO,

Seguir leyendo