GPT-4o mini của OpenAI xử lý hơn 200 tỷ mã thông báo hàng ngày chưa đầy một tuần sau khi ra mắt
GPT-4o mini đạt 82% trên MMLU, 87% trên MGSM và 87.2% trên HumanEval.
2 phút đọc
Được đăng trên
Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm
Ghi chú chính
- GPT-4o mini hỗ trợ bối cảnh 128K và mã thông báo đầu ra tối đa 16K, vượt qua 200 tỷ mã thông báo hàng ngày.
- Nó vượt trội so với các đối thủ như Gemini Flash và Claude Haiku về điểm chuẩn.
- Hiện được sử dụng trong ChatGPT Free, Plus và Team, với sự hỗ trợ trong tương lai cho nhiều loại đầu vào và đầu ra khác nhau.
OpenAI đã ra mắt GPT-4o mini, mẫu xe nhỏ mới nhất, có khả năng hoạt động tốt nhất, dành cho đại chúng cách đây không lâu. Công ty được Microsoft hậu thuẫn cho biết khi ra mắt rằng mô hình này hỗ trợ cửa sổ ngữ cảnh lên tới 128K và mã thông báo đầu ra tối đa ở mức 16K.
Bây giờ, trong một bản cập nhật được chia sẻ bởi ông chủ OpenAI Sam Altman, mô hình nhỏ đã vượt qua cột mốc xử lý hàng ngày là 200 tỷ token, mặc dù một số người dùng cũng lưu ý rằng mô hình Mini tiêu thụ mã thông báo cho hình ảnh nhiều hơn 20 lần so với GPT-4.
GPT-4o mini lý tưởng cho các tác vụ yêu cầu chi phí và độ trễ thấp, phù hợp với các ứng dụng liên quan đến nhiều lệnh gọi mô hình, xử lý ngữ cảnh lớn hoặc tương tác văn bản theo thời gian thực, chẳng hạn như API, phân tích cơ sở mã toàn diện và chatbot hỗ trợ khách hàng.
Công ty được Microsoft hậu thuẫn hứa hẹn: “Ngày nay, GPT-4o mini hỗ trợ văn bản và tầm nhìn trong API, đồng thời hỗ trợ các đầu vào và đầu ra văn bản, hình ảnh, video và âm thanh trong tương lai”.
OpenAI cho biết tại thời điểm ra mắt rằng mẫu Mini vượt trội hơn một số đối thủ ở một số điểm chuẩn. GPT-4o Mini vượt trội so với đối thủ cạnh tranh, như Gemini Flash của Google và Claude Haiku của Anthropic, với điểm chuẩn cao: 82% trên MMLU, 87% trên MGSM và 87.2% trên HumanEval.
GPT-4o mini cũng thay thế GPT-3.5 cho người dùng ChatGPT Free, Plus và Team với thời hạn đào tạo là tháng 2023 năm XNUMX. nemo, một mô hình nhỏ hơn khác của Mistral AI được hỗ trợ bởi Nvidia, cũng đang tạo nên làn sóng với 128 nghìn mã thông báo và điểm 68.0% trên MMLU.
Diễn đàn người dùng
Tin nhắn 0