Microsoft Orca-Math je majhen jezikovni model, ki lahko prekaša GPT-3.5 in Gemini Pro pri reševanju matematičnih problemov

Ikona časa branja 2 min. prebrati


Bralci pomagajo pri podpori MSpoweruser. Če kupujete prek naših povezav, lahko prejmemo provizijo. Ikona opisa orodja

Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več

Ključne opombe

  • Glede na merila uspešnosti je Orca-Math dosegel 86.81 % na GSM8k pass@1.
  • Ta številka premaga Metin LLAMA-2-70, Googlov Gemini Pro, OpenAI GPT-3.5 in celo modele, specifične za matematiko, kot sta MetaMath-70B in WizardMa8th-70B.
Microsoft Orca Math

Microsoft Research danes razglasitve Orca-Math, majhen jezikovni model (SLM), ki lahko pri reševanju matematičnih problemov prekaša veliko večje modele, kot sta Gemini Pro in GPT-3.5. Orca-Math ponazarja, kako se lahko specializirani SLM odlikujejo na določenih področjih in celo prekašajo večje modele. Pomembno je omeniti, da ta model ni bil ustvarjen iz nič s strani Microsofta, namesto tega je bil ta model ustvarjen s fino nastavitvijo modela Mistral 7B.

Glede na merila uspešnosti je Orca-Math dosegel 86.81 % na GSM8k pass@1. Ta številka premaga Metin LLAMA-2-70, Googlov Gemini Pro, OpenAI GPT-3.5 in celo modele, specifične za matematiko, kot sta MetaMath-70B in WizardMa8th-70B. Pomembno je omeniti, da je osnovni model Mistral-7B, na podlagi katerega je bila zgrajena Orca-Math, dosegel le 37.83% na GSM8K.

Microsoft Research je uspel doseči to impresivno zmogljivost z upoštevanjem spodnjih tehnik:

  • Visokokakovostni sintetični podatki: Orca-Math je bil usposobljen na naboru podatkov 200,000 matematičnih nalog, natančno izdelan z uporabo več agentov (AutoGen). Čeprav je ta nabor podatkov manjši od nekaterih drugih naborov matematičnih podatkov, je omogočil hitrejše in stroškovno učinkovitejše usposabljanje.
  • Iterativni učni proces: Poleg tradicionalne nadzorovane natančne nastavitve je bil Orca-Math podvržen ponavljajočemu se procesu učenja. Vadil je reševanje problemov in se nenehno izboljševal na podlagi povratnih informacij iz signala »učitelja«.

»Naše ugotovitve kažejo, da so manjši modeli dragoceni v specializiranih nastavitvah, kjer se lahko kosajo z zmogljivostjo veliko večjih modelov, vendar z omejenim obsegom. Z usposabljanjem Orca-Math na majhnem naboru podatkov 200,000 matematičnih problemov smo dosegli ravni zmogljivosti, ki tekmujejo ali presegajo tiste veliko večjih modelov,« je zapisala skupina Microsoft Research.

Več o temah: microsoft, Orca-Math, raziskave, SLM