Microsoft Orca-Math är en liten språkmodell som kan överträffa GPT-3.5 och Gemini Pro när det gäller att lösa matematiska problem

Lästid ikon 2 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

Viktiga anteckningar

  • Enligt benchmarks uppnådde Orca-Math 86.81 % på GSM8k pass@1.
  • Detta nummer slår Metas LLAMA-2-70, Googles Gemini Pro, OpenAI:s GPT-3.5 och till och med matematikspecifika modeller som MetaMath-70B och WizardMa8th-70B.
Microsoft Orca Math

Microsoft Research idag meddelade Orca-Math, en liten språkmodell (SLM) som kan överträffa mycket större modeller som Gemini Pro och GPT-3.5 när det gäller att lösa matematiska problem. Orca-Math exemplifierar hur specialiserade SLM:er kan utmärka sig inom specifika domäner, även överträffa större modeller. Det är viktigt att notera att denna modell inte skapades från grunden av Microsoft, istället skapades denna modell genom att finjustera Mistral 7B-modellen.

Enligt benchmarks uppnådde Orca-Math 86.81 % på GSM8k pass@1. Detta nummer slår Metas LLAMA-2-70, Googles Gemini Pro, OpenAI:s GPT-3.5 och till och med matematikspecifika modeller som MetaMath-70B och WizardMa8th-70B. Det är viktigt att notera att basmodellen Mistral-7B baserad på vilken Orca-Math byggdes uppnådde endast 37.83% på GSM8K.

Microsoft Research kunde uppnå denna imponerande prestanda genom att följa nedanstående tekniker:

  • Syntetisk data av hög kvalitet: Orca-Math tränades på en datauppsättning av 200,000 XNUMX matteproblem, minutiöst utformad med hjälp av multi-agenter (AutoGen). Även om denna datauppsättning är mindre än vissa andra matematiska datauppsättningar, möjliggjorde den snabbare och mer kostnadseffektiv utbildning.
  • Iterativ inlärningsprocess: Förutom traditionell övervakad finjustering genomgick Orca-Math en iterativ inlärningsprocess. Den tränade på att lösa problem och förbättrades kontinuerligt baserat på feedback från en "lärare"-signal

"Våra resultat visar att mindre modeller är värdefulla i specialiserade miljöer där de kan matcha prestanda hos mycket större modeller men med en begränsad omfattning. Genom att träna Orca-Math på en liten datamängd med 200,000 XNUMX matematiska problem, har vi uppnått prestandanivåer som konkurrerar med eller överträffar de för mycket större modeller”, skrev Microsoft Research-teamet.

Mer om ämnena: microsoft, Orca-Math, Forskning, SLM