El modelo Phi-2 2.7B de Microsoft supera al modelo Google Gemini Nano-2 3.2B recientemente anunciado

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Microsoft Phi-2

En los últimos meses, Microsoft Research ha lanzado un conjunto de modelos de lenguaje pequeño (SLM) llamado "Phi". El Phi-1 se lanzó primero con 1.3 millones de parámetros y estaba especializado para la codificación básica de Python. En septiembre, Microsoft Research liberado Modelo Phi-1.5 con 1.3 millones de parámetros, pero fue entrenado con una nueva fuente de datos que incluía varios textos sintéticos de PNL. A pesar de su pequeño tamaño, el phi-1.5 ofrecía un rendimiento casi de última generación en comparación con otros modelos de tamaño similar.

Microsoft anunció hoy el lanzamiento del modelo Phi-2 con 2.7 millones de parámetros. Microsoft Research afirma que este nuevo SLM ofrece un rendimiento de última generación entre los modelos de lenguaje base con menos de 13 mil millones de parámetros. En algunos puntos de referencia complejos, Phi-2 iguala o supera a modelos hasta 25 veces más grandes.

la semana pasada Google anunció Conjunto de modelos lingüísticos de Géminis. El Gemini Nano es el modelo más eficiente de Google creado para tareas en dispositivos y puede ejecutarse directamente en silicio móvil. El modelo de lenguaje pequeño similar a Gemini Nano permite funciones como resumen de texto, respuestas inteligentes contextuales y revisión avanzada y corrección gramatical.

Según Microsoft, el nuevo modelo Phi-2 iguala o supera al nuevo Google Gemini Nano-2, a pesar de ser de menor tamaño. Puede encontrar la comparación de puntos de referencia entre los modelos Google Gemini Nano-2 y Phi-2 a continuación.

ModeloTamañoBBHboolqMBPPMMLU
Géminis Nano 23.2B42.479.327.255.8
fi-22.7B59.383.359.156.7

Además de superar al Gemini Nano-2, Phi-2 también supera el rendimiento de los modelos Mistral y Llama-2 en los parámetros 7B y 13B en varios puntos de referencia. Encuentre los detalles a continuación.

ModeloTamañoBBHSentido común
Razonamiento
Idioma
Entender
MatemáticasCodificación
Llama-27B40.062.256.716.521.0
13B47.865.061.934.225.4
70B66.569.267.664.138.3
Mistral7B57.266.463.746.439.4
fi-22.7B59.268.862.061.153.7

Si bien los dos modelos phi anteriores estuvieron disponibles en Hugging Face, Fi2 está disponible en el catálogo de modelos de Azure. Puedes aprender más sobre Phi-2 esta página.

Más sobre los temas: microsoft, microsoft research, fi-1, fi-2