GPT-4 er nå tilgjengelig for ChatGPT Plus-abonnenter

Ikon for lesetid 3 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

OpenAI ble endelig avduket GPT-4. Ifølge selskapet er den nyeste AI-modellen mer presis og effektiv ettersom den kan håndtere flere input uten forvirring. I tillegg til det har GPT-4 faktisk multimodal funksjon, slik at den kan behandle bilder. GPT-4 er nå tilgjengelig for ChatGPT Plus-abonnenter, og utviklere kan nå få tilgang til det som en API.

Etter rapporter om ankomsten i forrige uke, er GPT-4 endelig her, levert via Azures AI-optimaliserte infrastruktur. Den ble trent på Microsoft Azure AI-superdatamaskiner og har noen bemerkelsesverdige forskjeller fra GPT-3.5. Spesielt GPT-4 scoret i 88. persentil og over i ulike tester og benchmarks. 

"I en uformell samtale kan skillet mellom GPT-3.5 og GPT-4 være subtilt," sier OpenAI i et blogginnlegg. "Forskjellen kommer frem når kompleksiteten til oppgaven når en tilstrekkelig terskel - GPT-4 er mer pålitelig, kreativ og i stand til å håndtere mye mer nyanserte instruksjoner enn GPT-3.5."

Generelt sa OpenAI at det er 82 % mindre mulig at den nye modellen vil svare på begrensede emner og forespørsler, noe som gjør det trygt for brukere. Kvaliteten på svaret er også forbedret, med opptil 40 % sannsynlighet for å produsere faktasvar.

En stor del av GPT-4 fokuserer på dens evne til å håndtere forespørsler mer effektivt. Som OpenAI bemerket, kan den nå godta 25,000 4 ord med tekst uten å oppleve forvirring. Dette er gode nyheter for brukere som ønsker å bruke modellens fulle potensial, da de vil få lov til å gi flere detaljer og instruksjoner i sine spørsmål og forespørsler. Det største høydepunktet til GPT-4 er imidlertid tillegget av en multimodal funksjon, som var en av de største forventningene til modellen siden den ble rapportert i forrige uke. Ved å bruke denne nye funksjonen kan GPT-XNUMX nå behandle bildeinndata og beskrive dem gjennom tekster, selv om den ikke er tilgjengelig for alle OpenAI-kunder ennå, da den fortsatt er teknisk under test ved hjelp av Be My Eyes og Virtual Volunteer-funksjonen. .

GPT-4 som beskriver bilder
Bildekreditt: OpenAI

GPT-4 som beskriver bilder

"For eksempel, hvis en bruker sender et bilde av innsiden av kjøleskapet sitt, vil den virtuelle frivillige ikke bare kunne identifisere riktig hva som er i det, men også ekstrapolere og analysere hva som kan tilberedes med disse ingrediensene," beskrev OpenAi funksjonen . "Verktøyet kan også tilby en rekke oppskrifter for disse ingrediensene og sende en trinn-for-trinn-guide for hvordan du lager dem."

Wow Bing kan nå faktisk beskrive bilder, nå som den vet at den bruker GPT-4!
byu/BroskiPlaysYT inbing

Ikke desto mindre ser det ut til at denne multimodalitetsevnen delvis er brakt inn i nye Bing. Microsoft sa at chatboten til søkemotoren har kjørt modellen siden forrige uke. Det er imidlertid viktig å merke seg at Bings multimodale funksjon fortsatt er begrenset. Til å begynne med kan den bare godta bilder via lenker på nettet, som den vil beskrive som et svar. I mellomtiden, når du blir bedt om bilder ved hjelp av beskrivelser, vil chatboten gi det mest relevante innholdet, inkludert bilderesultater og mer.

Bing Chat bruker multimodal funksjon som svar

På en sidenotat betyr ikke disse forbedringene i GPT-4 slutten på eksisterende problemer som vanligvis er tilstede i alle generative AI-produkter. Selv om OpenAI lovet modellen å være tryggere enn GPT-3.5 når det gjelder å nekte å svare på skadelige instruksjoner, kan den fortsatt generere hallusinasjoner og sosiale skjevheter. OpenAI-sjef Sam Altman til og med beskrevet GPT-4 som noe "fortsatt feil, fortsatt begrenset." Til tross for dette er teamet dedikert til kontinuerlig forbedring av modellen ettersom den fortsetter å tiltrekke seg mer oppmerksomhet fra publikum og ettersom Microsoft injiserer den i flere av produktene sine.

Mer om temaene: ai, bing, ChatGPT, åpenAI