Creaci贸n de prompts potentes para Einstein for Developers 鈽侊笍

Creaci贸n de prompts potentes para Einstein for Developers 鈽侊笍

Desbloquea todo el potencial de Einstein for Developers escribiendo prompts efectivas y bien enmarcadas para producir c贸digo Apex robusto.

El post Einstein for Developers

The post Escribiendo instrucciones eficaces para Einstein for Developers appeared first on Blog de desarrolladores de Salesforce.

Seguir leyendo

Mejore su experiencia MuleSoft con IA 鈽侊笍

Mejore su experiencia MuleSoft con IA 鈽侊笍

En el mundo de la IA, que se desarrolla r谩pidamente, MuleSoft est谩 evolucionando sus capacidades de integraci贸n, gesti贸n de API e IA.

En el mundo de la IA, MuleSoft est谩 evolucionando sus capacidades de integraci贸n, gesti贸n de API e IA

The post Acelere su viaje a MuleSoft con IA appeared first on Blog de Desarrolladores de Salesforce.

Seguir leyendo

Dentro de la investigaci贸n en IA: Superar los retos para impulsar nuevas innovaciones

Por Yingbo Zhou y Scott Nyberg En nuestra serie 芦Engineering Energizers禄 Q&A, examinamos las experiencias profesionales que han formado a los l铆deres de ingenier铆a de Salesforce. Conozca a Yingbo Zhou, Director Senior de Investigaci贸n de Salesforce AI Research, donde dirige su equipo para hacer avanzar la IA, centr谩ndose en los campos del procesamiento del lenguaje natural y el software […]

La experiencia de Yingbo Zhou en el campo de la inteligencia artificial es una de las claves de su 茅xito

El post Inside AI Research: Conquering Complex Challenges to Power Next Generation Innovations appeared first on Blog de ingenier铆a de Salesforce.

La investigaci贸n de la IA desde dentro: C贸mo superar retos complejos para impulsar la pr贸xima generaci贸n de innovaciones

Seguir leyendo

Modelado de secuencias largas con XGen: Un LLM de 7B entrenado con secuencias de entrada de 8K de longitud

TLDR

Entrenamos una serie de LLMs 7B llamados XGen-7B con atenci贸n densa est谩ndar hasta 8K de longitud de secuencia para hasta 1.5T tokens. Tambi茅n afinamos los modelos en datos de instrucci贸n de dominio p煤blico. Los principales resultados son:

  • En pruebas de PNL est谩ndar, XGen consigue resultados comparables o mejores
Seguir leyendo

Dentro de CodeGen: Nuestro LLM interno de c贸digo abierto 鈽侊笍

Dentro de CodeGen: Nuestro LLM interno de c贸digo abierto 鈽侊笍

CodeGen, parte de la propia familia de modelos de lenguaje de gran tama帽o (LLM) de Salesforce, es un LLM de c贸digo abierto para la comprensi贸n y generaci贸n de c贸digo.

CodeGen, parte de la propia familia de modelos de lenguaje de gran tama帽o (LLM) de Salesforce

The post Dentro de CodeGen, nuestro LLM interno de c贸digo abierto appeared first on Blog de desarrolladores de Salesforce.

Seguir leyendo

CodeGen2.5: peque帽o, pero poderoso

Contribuci贸n equitativa entre Erik Nijkamp y Hiroaki Hayashi.

Paper
Code
Tweet

Abstract

La familia de modelos CodeGen de Salesforce crece con CodeGen2.5 – 隆un modelo peque帽o, pero poderoso! Mientras que ha habido una tendencia reciente de grandes modelos de lenguaje (LLM) de tama帽o cada vez mayor, mostramos que un modelo peque帽o

CodeGen2.5 – peque帽o pero poderoso

Seguir leyendo