Microsoft Orca-Math este un model de limbaj mic care poate depăși GPT-3.5 și Gemini Pro în rezolvarea problemelor de matematică

Pictograma timp de citire 2 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Află mai multe

Note cheie

  • Conform benchmark-urilor, Orca-Math a obținut 86.81% la GSM8k pass@1.
  • Acest număr depășește LLAMA-2-70 de la Meta, Gemini Pro de la Google, GPT-3.5 de la OpenAI și chiar modele specifice matematicii, cum ar fi MetaMath-70B și WizardMa8th-70B.
Microsoft Orca Math

Microsoft Research astăzi a anunțat Orca-Math, un model de limbaj mic (SLM) care poate depăși modelele mult mai mari, cum ar fi Gemini Pro și GPT-3.5, în rezolvarea problemelor de matematică. Orca-Math exemplifica modul în care SLM-urile specializate pot excela în domenii specifice, depășind chiar și modelele mai mari. Este important de menționat că acest model nu a fost creat de la zero de către Microsoft, ci acest model a fost creat prin reglarea fină a modelului Mistral 7B.

Conform benchmark-urilor, Orca-Math a obținut 86.81% la GSM8k pass@1. Acest număr depășește LLAMA-2-70 de la Meta, Gemini Pro de la Google, GPT-3.5 de la OpenAI și chiar modele specifice matematicii, cum ar fi MetaMath-70B și WizardMa8th-70B. Este important de menționat că modelul de bază Mistral-7B pe baza căruia a fost construit Orca-Math a atins doar 37.83% pe GSM8K.

Microsoft Research a reușit să obțină această performanță impresionantă urmând tehnicile de mai jos:

  • Date sintetice de înaltă calitate: Orca-Math a fost antrenat pe un set de date de 200,000 de probleme de matematică, realizat meticulos folosind multi-agenți (AutoGen). Deși acest set de date este mai mic decât alte seturi de date matematice, a permis un antrenament mai rapid și mai rentabil.
  • Proces de învățare iterativă: Pe lângă reglarea fină supravegheată tradițională, Orca-Math a trecut printr-un proces de învățare iterativ. A exersat rezolvarea problemelor și s-a îmbunătățit continuu pe baza feedback-ului de la un semnal „profesor”.

„Descoperirile noastre arată că modelele mai mici sunt valoroase în setările specializate în care pot egala performanța modelelor mult mai mari, dar cu un domeniu limitat. Antrenând Orca-Math pe un set mic de date de 200,000 de probleme de matematică, am atins niveluri de performanță care rivalizează sau depășesc cu cele ale modelelor mult mai mari”, a scris echipa Microsoft Research.

Mai multe despre subiecte: microsoft, Orca-Math, Cercetare, SLM