GPT-4 er nu tilgængelig for ChatGPT Plus-abonnenter

Ikon for læsetid 3 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

OpenAI blev endelig afsløret GPT-4. Ifølge virksomheden er dens seneste AI-model mere præcis og effektiv, da den kan håndtere flere input uden forvirring. Ud over det har GPT-4 faktisk multimodalt kapacitet, så den kan behandle billeder. GPT-4 er nu tilgængelig for ChatGPT Plus-abonnenter, og udviklere kan nu få adgang til det som en API.

Efter rapporter om sin ankomst i sidste uge, er GPT-4 endelig her, leveret via Azures AI-optimerede infrastruktur. Den blev trænet på Microsoft Azure AI-supercomputere og har nogle bemærkelsesværdige forskelle fra GPT-3.5. Især GPT-4 scoret i 88. percentilen og derover i forskellige tests og benchmarks. 

"I en afslappet samtale kan skelnen mellem GPT-3.5 og GPT-4 være subtil," siger OpenAI i et blogindlæg. "Forskellen kommer frem, når kompleksiteten af ​​opgaven når en tilstrækkelig tærskel - GPT-4 er mere pålidelig, kreativ og i stand til at håndtere meget mere nuancerede instruktioner end GPT-3.5."

Generelt sagde OpenAI, at det er 82 % mindre muligt, at den nye model vil reagere på begrænsede emner og anmodninger, hvilket gør det sikkert for brugerne. Kvaliteten af ​​dets svar er også forbedret, med op til 40 % sandsynlighed for at producere faktuelle svar.

En stor del af GPT-4 fokuserer på dets evne til at håndtere forespørgsler mere effektivt. Som OpenAI bemærkede, kan den nu acceptere 25,000 ord tekst uden at opleve forvirring. Dette er gode nyheder for brugere, der ønsker at bruge modellens fulde potentiale, da de får lov til at give flere detaljer og instruktioner i deres spørgsmål og anmodninger. Det største højdepunkt ved GPT-4 er dog tilføjelsen af ​​en multimodal kapacitet, som var en af ​​de største forventninger fra modellen, siden den blev rapporteret i sidste uge. Ved at bruge denne nye funktion kan GPT-4 nu behandle billedinput og beskrive dem gennem tekster, selvom den ikke er tilgængelig for alle OpenAI-kunder endnu, da den stadig er teknisk under test ved hjælp af Be My Eyes og dens Virtual Volunteer-funktion .

GPT-4, der beskriver billeder
Billedkredit: OpenAI

GPT-4, der beskriver billeder

"For eksempel, hvis en bruger sender et billede af indersiden af ​​deres køleskab, vil Virtual Volunteer ikke kun være i stand til korrekt at identificere, hvad der er i det, men også ekstrapolere og analysere, hvad der kan tilberedes med disse ingredienser," beskrev OpenAi funktionen . "Værktøjet kan også derefter tilbyde en række opskrifter på disse ingredienser og sende en trin-for-trin guide til, hvordan man laver dem."

Wow Bing kan nu faktisk beskrive billeder, nu hvor den ved, at den bruger GPT-4!
byu/BroskiPlaysYT inbing

Ikke desto mindre ser denne multimodalitetsevne ud til delvist at blive bragt ind i ny Bing. Microsoft sagde, at chatbot fra sin søgemaskine har kørt modellen siden sidste uge. Det er dog vigtigt at bemærke, at Bings multimodale funktion stadig er begrænset. Til at starte med kan den kun acceptere billeder via links på nettet, som den vil beskrive som et svar. I mellemtiden, når du bliver bedt om billeder ved hjælp af beskrivelser, vil chatbotten levere det mest relevante indhold, inklusive billedresultater og mere.

Bing Chat bruger multimodal funktion som svar

På en sidebemærkning betyder disse forbedringer i GPT-4 ikke slutningen på eksisterende problemer, der almindeligvis er til stede i alle generative AI-produkter. Selvom OpenAI lovede modellen at være sikrere end GPT-3.5 med hensyn til at nægte at reagere på skadelige instruktioner, kan den stadig generere hallucinationer og sociale skævheder. OpenAI CEO Sam Altman endda beskrevet GPT-4 som noget "stadig defekt, stadig begrænset." På trods af dette er teamet dedikeret til kontinuerlig forbedring af modellen, da den fortsætter med at tiltrække mere opmærksomhed fra offentligheden, og da Microsoft injicerer den i flere af sine produkter.

Mere om emnerne: ai, bing, ChatGPT, GPT-4, åbenAI

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *