GPT-4 nu beschikbaar voor ChatGPT Plus-abonnees
3 minuut. lezen
Uitgegeven op
Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer
OpenAI eindelijk onthuld GPT-4. Volgens het bedrijf is het nieuwste AI-model nauwkeuriger en efficiënter omdat het zonder verwarring meer input aankan. Daarnaast heeft GPT-4 inderdaad multimodaal vermogen, waardoor het afbeeldingen kan verwerken. GPT-4 is nu beschikbaar voor ChatGPT Plus-abonnees en ontwikkelaars hebben er nu toegang toe als een API.
Na meldt Over de komst vorige week is GPT-4 eindelijk hier, geleverd via de AI-geoptimaliseerde infrastructuur van Azure. Het is getraind op Microsoft Azure AI-supercomputers en vertoont enkele opmerkelijke verschillen met GPT-3.5. In het bijzonder GPT-4 scoorde in het 88e percentiel en hoger in verschillende tests en benchmarks.
"In een informeel gesprek kan het onderscheid tussen GPT-3.5 en GPT-4 subtiel zijn", zegt OpenAI in een blogpost. "Het verschil komt naar voren wanneer de complexiteit van de taak een voldoende drempel bereikt - GPT-4 is betrouwbaarder, creatiever en in staat om veel meer genuanceerde instructies te verwerken dan GPT-3.5."
Over het algemeen zei OpenAI dat het 82% minder mogelijk is dat het nieuwe model reageert op beperkte onderwerpen en verzoeken, waardoor het veilig is voor gebruikers. De kwaliteit van de respons is ook verbeterd, met tot 40% kans op feitelijke antwoorden.
Een groot deel van GPT-4 richt zich op het vermogen om vragen effectiever af te handelen. Zoals OpenAI opmerkte, kan het nu 25,000 woorden tekst accepteren zonder verwarring te ervaren. Dit is goed nieuws voor gebruikers die het volledige potentieel van het model willen benutten, aangezien ze meer details en instructies mogen geven in hun vragen en verzoeken. Het grootste hoogtepunt van GPT-4 is echter de toevoeging van een multimodale mogelijkheid, wat een van de grootste verwachtingen van het model was sinds het vorige week werd gerapporteerd. Met behulp van deze nieuwe mogelijkheid kan GPT-4 nu beeldinvoer verwerken en beschrijven door middel van teksten, hoewel het nog niet beschikbaar is voor alle OpenAI-klanten omdat het technisch nog steeds wordt getest met behulp van Be My Eyes en de Virtual Volunteer-functie .
"Als een gebruiker bijvoorbeeld een foto van de binnenkant van zijn koelkast stuurt, kan de virtuele vrijwilliger niet alleen correct identificeren wat erin zit, maar ook extrapoleren en analyseren wat er met die ingrediënten kan worden bereid", beschreef OpenAi de functie . "De tool kan dan ook een aantal recepten voor die ingrediënten aanbieden en een stapsgewijze handleiding sturen om ze te maken."
Wow Bing kan nu afbeeldingen beschrijven, nu het weet dat het GPT-4 gebruikt!
byu/BroskiPlaysYT inbing
Desalniettemin lijkt dit multimodaliteitsvermogen gedeeltelijk in de markt te zijn gebracht nieuwe Bing. Microsoft zei dat de chatbot van zijn zoekmachine het model sinds vorige week beheert. Het is echter belangrijk op te merken dat de multimodale functie van Bing nog steeds beperkt is. Om te beginnen kan het alleen afbeeldingen accepteren via links op internet, die het zal beschrijven als een reactie. Ondertussen zal de chatbot, wanneer hem wordt gevraagd om afbeeldingen met behulp van beschrijvingen, de meest relevante inhoud leveren, inclusief afbeeldingsresultaten en meer.
Overigens betekenen deze verbeteringen in GPT-4 niet het einde van de bestaande problemen die vaak aanwezig zijn in alle generatieve AI-producten. Hoewel OpenAI beloofde dat het model veiliger zou zijn dan GPT-3.5 wat betreft het weigeren te reageren op schadelijke instructies, kan het nog steeds hallucinaties en sociale vooroordelen opwekken. OpenAI-CEO Sam Altman zelfs beschreven GPT-4 als iets "nog steeds gebrekkig, nog steeds beperkt." Desondanks is het team toegewijd aan voortdurende verbetering van het model, aangezien het meer aandacht van het publiek blijft trekken en Microsoft het in meer van zijn producten injecteert.
Gebruikersforum
0 berichten