OpenAIs GPT-4o mini behandler over 200B tokens dagligt mindre end en uge efter lanceringen

GPT-4o mini scorer 82 % på MMLU, 87 % på MGSM og 87.2 % på HumanEval.

Ikon for læsetid 2 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

Nøgle noter

  • GPT-4o mini understøtter 128K kontekst og 16K max output tokens, hvilket overgår 200 milliarder daglige tokens.
  • Det overgår konkurrenter som Gemini Flash og Claude Haiku i benchmarks.
  • Bruges nu i ChatGPT Free, Plus og Team, med fremtidig understøttelse af forskellige input- og outputtyper.
GPT-4o Mini

OpenAI lancerede GPT-4o mini, dens seneste, mest kapable lille model, til masserne for lidt siden. Det Microsoft-støttede firma sagde ved lanceringen, at modellen understøtter op til 128K kontekstvindue og maksimalt output-tokens ved 16K.

Nu, i en opdatering delt af OpenAI-chef Sam Altman, har den lille model overgået den daglige behandlingsmilepæl på 200 milliarder tokens, selvom nogle brugere også bemærkede at Mini-modellen bruger mere end 20x tokens til billeder end GPT-4.

GPT-4o mini er ideel til opgaver, der kræver lave omkostninger og latenstid, hvilket gør den velegnet til applikationer, der involverer flere modelopkald, stor konteksthåndtering eller realtidstekstinteraktioner, såsom API'er, omfattende kodebaseanalyse og kundesupport chatbots.

"I dag understøtter GPT-4o mini tekst og vision i API'et, med understøttelse af tekst, billede, video og lyd input og output, der kommer i fremtiden," lover det Microsoft-støttede firma.

OpenAI sagde på tidspunktet for lanceringen, at Mini-modellen overgår nogle af sine konkurrenter i flere benchmarks. GPT-4o Mini udkonkurrerer konkurrenterne, ligesom Googles Gemini Flash og Anthropics Claude Haiku, med høje benchmarkscore: 82 % på MMLU, 87 % på MGSM og 87.2 % på HumanEval.

GPT-4o mini erstatter også GPT-3.5 for ChatGPT Free-, Plus- og Team-brugere med en træningsdato til oktober 2023. nemo, en anden mindre model fra Mistral AI, der understøttes af Nvidia, laver også bølger med 128K tokens og en 68.0% score på MMLU.

Brugerforum

0 meddelelser