Microsoft Orca-Math là mô hình ngôn ngữ nhỏ có thể vượt trội hơn GPT-3.5 và Gemini Pro trong việc giải toán

Biểu tượng thời gian đọc 2 phút đọc


Bạn đọc giúp đỡ ủng hộ MSpoweruser. Chúng tôi có thể nhận được hoa hồng nếu bạn mua thông qua các liên kết của chúng tôi. Biểu tượng chú giải công cụ

Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm

Ghi chú chính

  • Theo điểm chuẩn, Orca-Math đạt 86.81% trên GSM8k pass@1.
  • Con số này đánh bại LLAMA-2-70 của Meta, Gemini Pro của Google, GPT-3.5 của OpenAI và thậm chí cả các mô hình dành riêng cho toán học như MetaMath-70B và WizardMa8th-70B.
Microsoft Orca Toán

Nghiên cứu của Microsoft ngày nay công bố Orca-Math, một mô hình ngôn ngữ nhỏ (SLM) có thể vượt trội hơn nhiều so với các mô hình lớn hơn nhiều như Gemini Pro và GPT-3.5 trong việc giải các bài toán. Orca-Math minh họa cách SLM chuyên dụng có thể vượt trội trong các lĩnh vực cụ thể, thậm chí vượt trội so với các mô hình lớn hơn. Điều quan trọng cần lưu ý là mô hình này không phải do Microsoft tạo ra từ đầu, thay vào đó mô hình này được tạo ra bằng cách tinh chỉnh mô hình Mistral 7B.

Theo điểm chuẩn, Orca-Math đạt 86.81% trên GSM8k pass@1. Con số này đánh bại LLAMA-2-70 của Meta, Gemini Pro của Google, GPT-3.5 của OpenAI và thậm chí cả các mô hình dành riêng cho toán học như MetaMath-70B và WizardMa8th-70B. Điều quan trọng cần lưu ý là mẫu cơ sở Mistral-7B mà Orca-Math được chế tạo dựa trên đó chỉ đạt được 37.83% trên GSM8K.

Microsoft Research đã có thể đạt được hiệu suất ấn tượng này bằng cách làm theo các kỹ thuật dưới đây:

  • Dữ liệu tổng hợp chất lượng cao: Orca-Math đã được đào tạo trên tập dữ liệu của 200,000 bài toán, được chế tạo tỉ mỉ bằng cách sử dụng nhiều tác nhân (AutoGen). Mặc dù tập dữ liệu này nhỏ hơn một số tập dữ liệu toán học khác nhưng nó cho phép đào tạo nhanh hơn và tiết kiệm chi phí hơn.
  • Quá trình học tập lặp đi lặp lại: Ngoài việc tinh chỉnh có giám sát truyền thống, Orca-Math còn trải qua một quá trình học tập lặp đi lặp lại. Nó thực hành giải quyết vấn đề và liên tục cải tiến dựa trên phản hồi từ tín hiệu “giáo viên”

“Phát hiện của chúng tôi cho thấy các mô hình nhỏ hơn có giá trị trong các môi trường chuyên biệt, nơi chúng có thể sánh ngang với hiệu suất của các mô hình lớn hơn nhiều nhưng với phạm vi hạn chế. Bằng cách đào tạo Orca-Math trên một tập dữ liệu nhỏ gồm 200,000 bài toán, chúng tôi đã đạt được mức hiệu suất sánh ngang hoặc vượt qua mức hiệu suất của các mô hình lớn hơn nhiều”, nhóm Nghiên cứu của Microsoft viết.

Thông tin thêm về các chủ đề: microsoft, Toán học Orca, Nghiên cứu, SLM