Resumen de la conferencia

La semana que viene se celebrará en Nueva Orleans, Luisiana, la trigésimo séptima conferencia anual sobre sistemas de procesamiento de información neuronal (NeurIPS), del domingo 10 al sábado 16 de diciembre. NeurIPS incluirá charlas invitadas, demostraciones y presentaciones orales y en póster de los trabajos aceptados. NeurIPS 2023 se celebrará de nuevo en el Centro de Convenciones Ernest N. Morial de Nueva Orleans.

Patrocinio y eventos de Salesforce AI Research

Patrocinio de la conferencia: Salesforce AI Research se enorgullece de apoyar NeurIPS 2023 como patrocinador de nivel Platinum. Nuestro equipo de investigadores y reclutadores mostrará demostraciones, hablará sobre nuestras numerosas oportunidades de empleo y charlará con los asistentes en nuestro stand (nº 809) durante toda la semana. El horario de nuestro stand es el siguiente:

Lunes, 11 de diciembre 9:00am – 8:30pm **GC Recepción de Bienvenida 6:30 PM

Miércoles, 12 de diciembre 9:00am – 5:00pm

Miércoles, 13 de diciembre 9:00am – 5:00pm

Jueves, 14 de diciembre 9:00am -2:30pm

LatinX in AI: Nos complace continuar nuestra asociación con la Comunidad LatinX in AI. Estaremos participando en el Taller LatinX in AI (LXAI) en NeurIPS 2023 el lunes 11 de diciembre de 8:30am – 4:30pm.

Mujeres en Aprendizaje Automático: Salesforce Research se complace en participar también en el taller Women in Machine Learning, que tendrá lugar el lunes 11 de diciembre, de 8:00 a 16:30.

Evento de networking: Salesforce AI Research organizará un evento de networking al que sólo se podrá asistir por invitación el miércoles 13 de diciembre de 18:30 a 21:00 en el Bower Bar de Nueva Orleans.

Publicaciones de Salesforce AI Research en NeurIPS 2023

Salesforce Research se complace en anunciar un total de 11 artículos orales y pósteres aceptados de nuestro equipo de investigadores líderes.

Nuestros autores aceptados presentarán su trabajo en NeurIPS durante toda la conferencia principal; con horas, fechas y ubicaciones específicas indicadas a continuación. Estamos deseando compartir algunas de nuestras nuevas y emocionantes investigaciones con usted.

Los investigadores de Salesforce aparecen en negrita en las descripciones de las publicaciones a continuación.

Presentación oral: Transformers as Statisticians: Provable In-Context Learning with In-Context Algorithm Selection

Yu Bai, Fan Chen, Huan Wang, Caiming Xiong, Song Mei

Estudiamos la capacidad de aprendizaje en contexto (ICL) de los transformadores. Damos una teoría completa para que los transformadores hagan ICL, y además mostramos que los transformadores pueden aprender en contexto como los estadísticos – Un solo transformador puede seleccionar diferentes algoritmos para diferentes datos a mano.

Sesión oral: Dec 13 (Wednesday) 4:00 pm – 4:15pm CST, Room R06-R09 (level 2)

Poster: Dec 13 (Wednesday) 5:00 pm – 7:00 pm CST

Lugar del póster: Great Hall & Hall B1+B2 (level 1) #526

¿Qué puede aprender una sola capa de atención? A Study Through the Random Features Lens

Tianyu Guo, Hengyu Fu, Yu Bai, Song Mei

Estudiamos la expresividad de una única capa de atención de características aleatorias y obtenemos resultados concretos de aprendizaje a partir de muestras finitas.

Póster: 14 de diciembre (jueves) 5:00 pm – 7:00 pm CST

Lugar del póster: Great Hall & Hall B1+B2 (nivel 1) #1002

RL Eficiente con Observabilidad Deteriorada: Learning to Act with Delayed and Missing State Observations

Minshuo Chen, Yu Bai, H. Vincent Poor, Mengdi Wang

Diseñamos algoritmos de aprendizaje por refuerzo probablemente eficientes en muestras en un nuevo modelo de retroalimentación en el que algunas observaciones de estado pueden retrasarse o faltar en cada episodio.

Póster: 13 de diciembre (miércoles) 5:00 pm – 7:00 pm CST

Lugar del póster: Great Hall & Hall B1+B2 (nivel 1) #1909

BLIP-Diffusion: Pre-trained Subject Representation for Controllable Text-to-Image Generation and Editing

Dongxu Li, Junnan Li, Steven Hoi

Proponemos una arquitectura basada en codificador multimodal para entrenar y generar eficientemente contenido visual personalizado. El modelo es genérico para soportar varias aplicaciones generativas, incluyendo la generación controlada, la edición y la estilización.

Póster: 14 de diciembre (jueves) 10:45 am CST – 12:45 pm CST

Lugar del póster: Great Hall & Hall B1+B2 (nivel 1) #129

InstructBLIP: Towards General-purpose Vision-Language Models with Instruction Tuning

Wenliang Dai, Junnan Li, Dongxu Li, Anthony Meng Huat Tiong, Junqi Zhao, Weisheng Wang, Boyang Li, Pascale Fung, Steven Hoi

Validamos sistemáticamente la eficacia del ajuste de instrucciones visuales mediante la ampliación de los modelos BLIP-2. Nuestro modelo logró métricas superiores en múltiples pruebas. Nuestro modelo logró métricas superiores a través de múltiples puntos de referencia multimodales competitivos.

Póster: 14 de diciembre (jueves) 5:00 pm CST – 7:00 pm CST

Lugar del Póster: Great Hall & Hall B1+B2 (nivel 1) #711

UniControl: A Unified Diffusion Model for Controllable Visual Generation In the Wild

Can Qin, Shu Zhang, Ning Yu, Yihao Feng, Xinyi Yang, Yingbo Zhou, Huan Wang, Juan Carlos Niebles, Caiming Xiong, Silvio Savarese, Stefano Ermon, Yun Fu, Ran Xu

Introducimos UniControl, un nuevo modelo generativo de fundamentos que unifica indicaciones lingüísticas para el control del contexto y 9 condiciones de muchos disparos + 3 de cero disparos para el control de la estructura a nivel de píxel.

Póster: 14 de diciembre (jueves) 17:00 h CST – 19:00 h CST

Lugar del póster: Great Hall & Hall B1+B2 (nivel 1) #724

ConRad: Image Constrained Radiance Fields for 3D Generation from a Single Image

Blog: https://blog.salesforceairesearch.com/detail-preserving-image-to-3d-generation/

Senthil Purushwalkam, Nikhil Naik

Presentamos ConRad, una representación NERF que facilita la construcción de modelos 3D a partir de una sola imagen preservando con precisión los detalles del objeto representado.

Poster: Dic 12 (martes) 10:45 am CST – 12:45 pm CST

Lugar del póster: Great Hall & Hall B1+B2 (level 1) #210

Preference-grounded Token-level Guidance for Language Model Fine-tuning

Shentao Yang, Shujian Zhang, Congying Xia, Yihao Feng, Caiming Xiong, Mingyuan Zhou

Introducimos un nuevo paradigma de entrenamiento que puede iterar entre fundamentar la preferencia a nivel de secuencia en la guía de entrenamiento a nivel de token y mejorar el ajuste fino del LLM con la guía aprendida.

Póster: Dic 12 (martes) 5:15 pm CST – 7:15 pm CST

Lugar del póster: Great Hall & Hall B1+B2 (nivel 1) #326

FAMO: Fast Adaptive Multitask Optimization

Bo Liu, Yihao Feng, Qiang Liu, Peter Stone

Presentamos Fast Adaptive Multitask Optimization (FAMO), un método de ponderación dinámica que disminuye las pérdidas de tareas de forma equilibrada, demostrando un rendimiento comparativo en benchmarks multitarea tanto supervisados como de aprendizaje por refuerzo.

Póster: 14 de diciembre (jueves) 5 p.m. CST – 7 p.m. CST

Lugar del póster: Great Hall & Hall B1+B2 (nivel 1) #1221

LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning

Bo Liu, Yifeng Zhu, Chongkai Gao, Yihao Feng, Qiang Liu, Yuke Zhu, Peter Stone

Introducimos un punto de referencia para la transferencia de conocimientos del aprendizaje permanente de robots.

Póster: Dic 12 (martes) 10:45 am CST – 12:45 pm CST

Lugar del póster: Great Hall & Hall B1+B2 (level 1) #1414

Aprendizaje de Representaciones Desenredadas Temporalmente bajo No Estacionariedad Desconocida

Xiangchen Song, Weiran Yao, Yewen Fan, Xinshuai Dong, Guangyi Chen, Juan Carlos Niebles, Eric Xing, Kun Zhang

Introducimos NCTRL, un marco de estimación basado en principios, para recuperar de forma demostrable variables causales latentes retardadas en el tiempo e identificar sus relaciones a partir de datos secuenciales medidos bajo condiciones no estacionarias desconocidas.

Hora: 13 de diciembre (miércoles) 5 p.m. CST – 7 p.m. CST

Lugar del póster: Great Hall & Hall B1+B2 (nivel 1) #1007

Oportunidades profesionales con Salesforce AI Research

Verano 2024 Becario – AI Research – Palo Alto

Verano 2024 Becario – Tableau Research – Wshington – Seattle

Verano 2024 Becario – AI Research – Singapur

Como becario de investigación, trabajarás con un equipo de científicos e ingenieros de investigación en un proyecto que idealmente conducirá a una presentación en una conferencia de primer nivel.

Investigador científico – Salesforce AI Research (Palo Alto)

Investigador científico – Salesforce AI Research (Palo Alto)

Investigador científico/Senior Research Scientist – Salesforce AI Research Singapore (Singapur)

Ingeniero de aprendizaje automático – AI Research (Palo Alto)

Ingeniero ético de AI, Confidence Scores & Citations (Palo Alto)

Explore More

Para obtener más información sobre estos y otros proyectos de investigación, visite nuestro sitio web en salesforceairesearch.com.

Entradas recomendadas