Microsoft enseña a razonar a modelos pequeños con entrenamiento estratégico y datos sintéticos filtrados

Microsoft enseña a razonar a modelos pequeños con entrenamiento estratégico y datos sintéticos filtrados
Microsoft enseña a razonar a modelos pequeños con entrenamiento estratégico y datos sintéticos filtrados

Microsoft ha presentado Orca 2, un modelo de lenguaje pequeño que consigue capacidades de razonamiento equiparables a las de modelos grandes, resultado de un entrenamiento estratégico con datos sintéticos personalizados.

La empresa de tecnología está trabajando en formas de enseñar a razonar los modelos de lenguaje más pequeños, aquellos que tienen 10 mil millones de parámetros o menos. Lo hizo por primera vez con Orca, un modelo de 13 mil millones de parámetros presentado en junio que imitaba el proceso de razonamiento de modelos grandes.

Ahora lo hace con la siguiente iteración, Orca 2, que está disponible con 7 mil millones de parámetros o 13 mil millones. Está basado en el modelo base Llama 2 -que Microsoft ha desarrollado con Meta-, basado en datos sintéticos personalizados.

Los modelos grandes, como GPT-4 o PaLm, muestran su capacidad para razonar “respondiendo preguntas complejas, generando explicaciones e incluso resolviendo problemas que requieren un razonamiento de varios pasos”; una capacidad que, según Microsoft, “no se ha observado en modelos de lenguaje más pequeños”, como afirma en su blog de investigación.

La empresa tecnológica ha entrenado a Orca 2 bajo el enfoque de que las estrategias de solución utilizadas por modelos grandes pueden no ser la mejor opción para uno más pequeño. Por ello, utilizó un conjunto de datos sintéticos “cuidadosamente filtrados” con el que enseñó a Orca 2 varias técnicas de razonamiento y diferentes estrategias para resolver diferentes tareas.

Después de evaluar el rendimiento de este modelo en tareas complejas, Microsoft afirma que “Orca 2 supera significativamente a los modelos de tamaño similar (incluido el modelo Orca original) y logra niveles de rendimiento similares o mejores que los modelos de cinco a diez veces más grandes”. “.

“A medida que los modelos más grandes siguen sobresaliendo, nuestro trabajo con Orca 2 marca un paso significativo en la diversificación de las aplicaciones y opciones de implementación de los modelos de lenguaje”, concluye.

 
For Latest Updates Follow us on Google News
 

NEXT Se acerca diciembre, se acerca la Navidad y para comprar tus regalos traemos ofertas en televisores inteligentes, teléfonos, cafeteras… Caza de Gangas – .