Microsoft Orca-Math je malý jazykový model, který dokáže překonat GPT-3.5 a Gemini Pro při řešení matematických problémů.

Ikona času čtení 2 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

Klíčové poznámky

  • Podle benchmarků dosáhl Orca-Math 86.81 % na GSM8k pass@1.
  • Toto číslo překonává MetaMath LLAMA-2-70, Google Gemini Pro, OpenAI GPT-3.5 a dokonce i matematické modely jako MetaMath-70B a WizardMa8th-70B.
Microsoft Orca Math

Microsoft Research dnes oznámila, Orca-Math, malý jazykový model (SLM), který dokáže překonat mnohem větší modely jako Gemini Pro a GPT-3.5 při řešení matematických problémů. Orca-Math je příkladem toho, jak mohou specializované SLM vynikat v konkrétních doménách a dokonce překonat větší modely. Je důležité poznamenat, že tento model nebyl vytvořen od nuly společností Microsoft, ale tento model vznikl jemným doladěním modelu Mistral 7B.

Podle benchmarků dosáhl Orca-Math 86.81 % na GSM8k pass@1. Toto číslo překonává MetaMath LLAMA-2-70, Google Gemini Pro, OpenAI GPT-3.5 a dokonce i matematické modely jako MetaMath-70B a WizardMa8th-70B. Je důležité poznamenat, že základní model Mistral-7B, na jehož základě byl Orca-Math postaven, dosáhl na GSM37.83K pouze 8 %.

Výzkumu společnosti Microsoft se podařilo dosáhnout tohoto působivého výkonu pomocí následujících technik:

  • Vysoce kvalitní syntetická data: Orca-Math byl trénován na datovém souboru 200,000 XNUMX matematických úloh, pečlivě vytvořený pomocí multi-agentů (AutoGen). I když je tato datová sada menší než některé jiné matematické datové sady, umožnila rychlejší a nákladově efektivnější školení.
  • Iterativní proces učení: Kromě tradičního doladění pod dohledem prošel Orca-Math iterativním procesem učení. Procvičovalo řešení problémů a neustále se zlepšovalo na základě zpětné vazby od „učitelského“ signálu

„Naše zjištění ukazují, že menší modely jsou cenné ve specializovaných prostředích, kde se mohou vyrovnat výkonu mnohem větších modelů, ale s omezeným rozsahem. Školením Orca-Math na malém datovém souboru 200,000 XNUMX matematických problémů jsme dosáhli úrovní výkonu, které konkurují nebo překonávají mnohem větší modely,“ napsal tým Microsoft Research.

Více o tématech: microsoft, Orca-Math, Články vyžadující průzkum, SLM