OpenAI 的 GPT-4o mini 在推出不到一周的时间内每天处理超过 200 亿个代币
GPT-4o mini 在 MMLU 上的得分为 82%,在 MGSM 上的得分为 87%,在 HumanEval 上的得分为 87.2%。
2分钟读
发表于
阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多
重点说明
- GPT-4o mini 支持 128K 上下文和 16K 最大输出 token,每日 token 数量超过 200 亿。
- 它在基准测试中胜过 Gemini Flash 和 Claude Haiku 等竞争对手。
- 目前已在 ChatGPT Free、Plus 和 Team 中使用,未来将支持各种输入和输出类型。
OpenAI 推出了 GPT-4o迷你不久前,该公司向大众推出了其最新、功能最强大的小型模型。这家由微软支持的公司在发布会上表示,该模型支持高达 128K 的上下文窗口和最大 16K 的输出令牌。
现在,在 更新 OpenAI 老板 Sam Altman 分享的这个小模型已经突破了每天处理 200 亿个 token 的里程碑,尽管一些用户也 注意到 Mini 模型消耗的图像 token 数量比 GPT-20 多 4 倍。
GPT-4o mini 非常适合需要低成本和延迟的任务,使其适用于涉及多个模型调用、大上下文处理或实时文本交互的应用程序,例如 API、综合代码库分析和客户支持聊天机器人。
这家由微软支持的公司承诺:“今天,GPT-4o mini 在 API 中支持文本和视觉,未来将支持文本、图像、视频和音频的输入和输出。”
OpenAI 在发布时表示,Mini 模型在多个基准测试中的表现优于一些竞争对手。GPT-4o Mini 超越竞争对手,例如 Google 的 Gemini Flash 和 Anthropic 的 Claude Haiku,其基准测试分数较高:MMLU 上为 82%,MGSM 上为 87%,HumanEval 上为 87.2%。
GPT-4o mini 还为 ChatGPT Free、Plus 和 Team 用户取代了 GPT-3.5,培训截止日期为 2023 年 XNUMX 月。 尼莫另一个由 Nvidia 支持的 Mistral AI 小型模型,也以 128K 个代币和 68.0% 的 MMLU 得分引起轰动。
用户论坛
0消息