Le mini GPT-4o d'OpenAI traite plus de 200 milliards de jetons par jour moins d'une semaine après son lancement
GPT-4o mini obtient un score de 82 % sur MMLU, 87 % sur MGSM et 87.2 % sur HumanEval.
2 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus.
Notes clés
- GPT-4o mini prend en charge 128 16 jetons de contexte et 200 XNUMX jetons de sortie maximum, dépassant les XNUMX milliards de jetons quotidiens.
- Il surpasse des concurrents comme Gemini Flash et Claude Haiku dans les benchmarks.
- Désormais utilisé dans ChatGPT Free, Plus et Team, avec prise en charge future de divers types d'entrées et de sorties.
OpenAI a lancé le GPT-4o mini, son dernier petit modèle le plus performant, destiné au grand public il y a peu. La société soutenue par Microsoft a déclaré lors de son lancement que le modèle prend en charge jusqu'à 128 Ko de fenêtre contextuelle et un maximum de jetons de sortie à 16 Ko.
Maintenant dans une mise à jour partagé par le patron d'OpenAI, Sam Altman, le petit modèle a dépassé le cap du traitement quotidien de 200 milliards de jetons, même si certains utilisateurs ont également noté que le modèle Mini consomme plus de 20x jetons pour les images que GPT-4.
GPT-4o mini est idéal pour les tâches nécessitant un faible coût et une faible latence, ce qui le rend adapté aux applications impliquant plusieurs appels de modèles, une gestion de contextes volumineux ou des interactions textuelles en temps réel, telles que les API, une analyse complète de la base de code et des chatbots de support client.
"Aujourd'hui, GPT-4o mini prend en charge le texte et la vision dans l'API, avec une prise en charge des entrées et sorties de texte, d'image, vidéo et audio à venir", promet la société soutenue par Microsoft.
OpenAI a déclaré au moment du lancement que le modèle Mini surpassait certains de ses concurrents dans plusieurs benchmarks. GPT-4o Mini surpasse les concurrents, comme Gemini Flash de Google et Claude Haiku d'Anthropic, avec des scores de référence élevés : 82 % sur MMLU, 87 % sur MGSM et 87.2 % sur HumanEval.
GPT-4o mini remplace également GPT-3.5 pour les utilisateurs de ChatGPT Free, Plus et Team avec une date limite de formation fixée à octobre 2023. Némo, un autre modèle plus petit de Mistral AI soutenu par Nvidia, fait également des vagues avec 128 68.0 jetons et un score de XNUMX % sur MMLU.
Forum des utilisateurs
Messages 0