GPT-4o mini di OpenAI elabora oltre 200 miliardi di token ogni giorno a meno di una settimana dal lancio
GPT-4o mini ottiene un punteggio dell'82% su MMLU, dell'87% su MGSM e dell'87.2% su HumanEval.
2 minuto. leggere
Edizione del
Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più
Note chiave
- GPT-4o mini supporta contesto 128K e token di output massimo 16K, superando i 200 miliardi di token giornalieri.
- Supera concorrenti come Gemini Flash e Claude Haiku nei benchmark.
- Ora utilizzato in ChatGPT Free, Plus e Team, con supporto futuro per vari tipi di input e output.
OpenAI ha lanciato il GPT-4omini, il suo modello piccolo più recente e più capace, per le masse poco fa. La società sostenuta da Microsoft ha dichiarato al momento del lancio che il modello supporta fino a 128K di finestra di contesto e token di output massimo a 16K.
Ora, in un aggiornamento condiviso dal capo di OpenAI Sam Altman, il piccolo modello ha superato la pietra miliare di elaborazione giornaliera di 200 miliardi di token, sebbene anche alcuni utenti noto che il modello Mini consuma più di 20 token per le immagini rispetto a GPT-4.
GPT-4o mini è ideale per attività che richiedono basso costo e latenza, rendendolo adatto per applicazioni che coinvolgono più chiamate di modelli, gestione di contesti di grandi dimensioni o interazioni di testo in tempo reale, come API, analisi completa della base di codice e chatbot di assistenza clienti.
"Oggi, GPT-4o mini supporta testo e visione nell'API, con il supporto per input e output di testo, immagini, video e audio in arrivo in futuro", promette l'azienda sostenuta da Microsoft.
OpenAI ha dichiarato al momento del lancio che il modello Mini supera alcuni dei suoi concorrenti in diversi benchmark. GPT-4o Mini surclassa i concorrenti, come Gemini Flash di Google e Claude Haiku di Anthropic, con punteggi di riferimento elevati: 82% su MMLU, 87% su MGSM e 87.2% su HumanEval.
GPT-4o mini sostituisce anche GPT-3.5 per gli utenti ChatGPT Free, Plus e Team con una data limite per la formazione di ottobre 2023. nemo, un altro modello più piccolo di Mistral AI supportato da Nvidia, sta facendo scalpore con 128 token e un punteggio del 68.0% su MMLU.
Forum degli utenti
0 messaggi