Microsoft Orca-Math는 수학 문제 해결에서 GPT-3.5 및 Gemini Pro보다 뛰어난 성능을 발휘할 수 있는 작은 언어 모델입니다.

독서 시간 아이콘 2 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

주요 사항

  • 벤치마크에 따르면 Orca-Math는 GSM86.81k pass@8에서 1%를 달성했습니다.
  • 이 수치는 Meta의 LLAMA-2-70, Google의 Gemini Pro, OpenAI의 GPT-3.5, 심지어 MetaMath-70B 및 WizardMa8th-70B와 같은 수학 관련 모델을 능가합니다.
마이크로소프트 오르카 수학

오늘 마이크로소프트 리서치 발표 Orca-Math는 수학 문제 해결에서 Gemini Pro 및 GPT-3.5와 같은 훨씬 더 큰 모델보다 뛰어난 성능을 발휘할 수 있는 소규모 언어 모델(SLM)입니다. Orca-Math는 전문화된 SLM이 특정 도메인에서 어떻게 탁월한 성능을 발휘할 수 있는지, 심지어 더 큰 모델보다 뛰어난 성능을 발휘할 수 있는지를 보여줍니다. 이 모델은 Microsoft가 처음부터 만든 것이 아니라 Mistral 7B 모델을 미세 조정하여 만든 모델이라는 점에 유의하는 것이 중요합니다.

벤치마크에 따르면 Orca-Math는 GSM86.81k pass@8에서 1%를 달성했습니다. 이 수치는 Meta의 LLAMA-2-70, Google의 Gemini Pro, OpenAI의 GPT-3.5, 심지어 MetaMath-70B 및 WizardMa8th-70B와 같은 수학 관련 모델을 능가합니다. Orca-Math가 구축된 기반 모델 Mistral-7B는 GSM37.83K에서 8%만 달성했다는 점에 유의하는 것이 중요합니다.

Microsoft Research는 아래 기술을 통해 이처럼 인상적인 성능을 달성할 수 있었습니다.

  • 고품질 합성 데이터: Orca-Math는 200,000개의 수학 문제, 멀티 에이전트(AutoGen)를 사용하여 꼼꼼하게 제작되었습니다. 이 데이터 세트는 다른 수학 데이터 세트보다 작지만 더 빠르고 비용 효율적인 교육이 가능합니다.
  • 반복 학습 프로세스: Orca-Math는 전통적인 감독 미세 조정 외에도 반복 학습 프로세스를 거쳤습니다. '선생님' 시그널의 피드백을 바탕으로 문제 해결 연습을 하고 지속적으로 개선해 나갔습니다.

“우리의 연구 결과에 따르면 더 작은 모델은 범위가 제한되어 있지만 훨씬 더 큰 모델의 성능과 일치할 수 있는 특수한 환경에서는 더 작은 모델이 가치가 있습니다. 200,000개의 수학 문제로 구성된 소규모 데이터 세트에서 Orca-Math를 교육함으로써 우리는 훨씬 더 큰 모델에 필적하거나 능가하는 성능 수준을 달성했습니다.”라고 Microsoft Research 팀은 썼습니다.

주제에 대한 추가 정보: 마이크로 소프트, 오르카 수학, 리써치, SLM