Microsoft Orca-Math je malý jazykový model, ktorý dokáže prekonať GPT-3.5 a Gemini Pro pri riešení matematických problémov.
2 min. čítať
Publikované dňa
Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac
Kľúčové poznámky
- Podľa benchmarkov dosiahol Orca-Math 86.81 % na GSM8k pass@1.
- Toto číslo prekonáva LLAMA-2-70 od Meta, Gemini Pro od Google, GPT-3.5 od OpenAI a dokonca aj modely špecifické pre matematiku ako MetaMath-70B a WizardMa8th-70B.
Výskum spoločnosti Microsoft dnes oznámila, Orca-Math, malý jazykový model (SLM), ktorý dokáže prekonať oveľa väčšie modely ako Gemini Pro a GPT-3.5 pri riešení matematických problémov. Orca-Math je príkladom toho, ako môžu špecializované SLM vynikať v špecifických doménach a dokonca prekonať väčšie modely. Je dôležité poznamenať, že tento model nebol vytvorený od nuly spoločnosťou Microsoft, ale tento model vznikol jemným doladením modelu Mistral 7B.
Podľa benchmarkov dosiahol Orca-Math 86.81 % na GSM8k pass@1. Toto číslo prekonáva LLAMA-2-70 od Meta, Gemini Pro od Google, GPT-3.5 od OpenAI a dokonca aj modely špecifické pre matematiku ako MetaMath-70B a WizardMa8th-70B. Je dôležité poznamenať, že základný model Mistral-7B, na základe ktorého bola postavená Orca-Math, dosiahol na GSM37.83K iba 8 %.
Výskumu spoločnosti Microsoft sa podarilo dosiahnuť tento pôsobivý výkon pomocou nasledujúcich techník:
- Vysokokvalitné syntetické dáta: Orca-Math bol trénovaný na súbore údajov 200,000 XNUMX matematických úloh, precízne vytvorený pomocou multi-agentov (AutoGen). Aj keď je tento súbor údajov menší ako niektoré iné súbory matematických údajov, umožnil rýchlejšie a nákladovo efektívnejšie školenie.
- Iteračný proces učenia: Okrem tradičného dolaďovania pod dohľadom prešiel Orca-Math iteračným procesom učenia. Precvičovalo riešenie problémov a neustále sa zlepšovalo na základe spätnej väzby od „učiteľského“ signálu
„Naše zistenia ukazujú, že menšie modely sú cenné v špecializovaných prostrediach, kde sa môžu vyrovnať výkonom oveľa väčších modelov, ale s obmedzeným rozsahom. Trénovaním Orca-Math na malom súbore údajov 200,000 XNUMX matematických problémov sme dosiahli úrovne výkonu, ktoré súperia alebo prevyšujú úrovne oveľa väčších modelov,“ napísal tím Microsoft Research.