GPT-4 er nå tilgjengelig for ChatGPT Plus-abonnenter
3 min. lese
Publisert på
Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer
OpenAI ble endelig avduket GPT-4. Ifølge selskapet er den nyeste AI-modellen mer presis og effektiv ettersom den kan håndtere flere input uten forvirring. I tillegg til det har GPT-4 faktisk multimodal funksjon, slik at den kan behandle bilder. GPT-4 er nå tilgjengelig for ChatGPT Plus-abonnenter, og utviklere kan nå få tilgang til det som en API.
Etter rapporter om ankomsten i forrige uke, er GPT-4 endelig her, levert via Azures AI-optimaliserte infrastruktur. Den ble trent på Microsoft Azure AI-superdatamaskiner og har noen bemerkelsesverdige forskjeller fra GPT-3.5. Spesielt GPT-4 scoret i 88. persentil og over i ulike tester og benchmarks.
"I en uformell samtale kan skillet mellom GPT-3.5 og GPT-4 være subtilt," sier OpenAI i et blogginnlegg. "Forskjellen kommer frem når kompleksiteten til oppgaven når en tilstrekkelig terskel - GPT-4 er mer pålitelig, kreativ og i stand til å håndtere mye mer nyanserte instruksjoner enn GPT-3.5."
Generelt sa OpenAI at det er 82 % mindre mulig at den nye modellen vil svare på begrensede emner og forespørsler, noe som gjør det trygt for brukere. Kvaliteten på svaret er også forbedret, med opptil 40 % sannsynlighet for å produsere faktasvar.
En stor del av GPT-4 fokuserer på dens evne til å håndtere forespørsler mer effektivt. Som OpenAI bemerket, kan den nå godta 25,000 4 ord med tekst uten å oppleve forvirring. Dette er gode nyheter for brukere som ønsker å bruke modellens fulle potensial, da de vil få lov til å gi flere detaljer og instruksjoner i sine spørsmål og forespørsler. Det største høydepunktet til GPT-4 er imidlertid tillegget av en multimodal funksjon, som var en av de største forventningene til modellen siden den ble rapportert i forrige uke. Ved å bruke denne nye funksjonen kan GPT-XNUMX nå behandle bildeinndata og beskrive dem gjennom tekster, selv om den ikke er tilgjengelig for alle OpenAI-kunder ennå, da den fortsatt er teknisk under test ved hjelp av Be My Eyes og Virtual Volunteer-funksjonen. .
"For eksempel, hvis en bruker sender et bilde av innsiden av kjøleskapet sitt, vil den virtuelle frivillige ikke bare kunne identifisere riktig hva som er i det, men også ekstrapolere og analysere hva som kan tilberedes med disse ingrediensene," beskrev OpenAi funksjonen . "Verktøyet kan også tilby en rekke oppskrifter for disse ingrediensene og sende en trinn-for-trinn-guide for hvordan du lager dem."
Wow Bing kan nå faktisk beskrive bilder, nå som den vet at den bruker GPT-4!
byu/BroskiPlaysYT inbing
Ikke desto mindre ser det ut til at denne multimodalitetsevnen delvis er brakt inn i nye Bing. Microsoft sa at chatboten til søkemotoren har kjørt modellen siden forrige uke. Det er imidlertid viktig å merke seg at Bings multimodale funksjon fortsatt er begrenset. Til å begynne med kan den bare godta bilder via lenker på nettet, som den vil beskrive som et svar. I mellomtiden, når du blir bedt om bilder ved hjelp av beskrivelser, vil chatboten gi det mest relevante innholdet, inkludert bilderesultater og mer.
På en sidenotat betyr ikke disse forbedringene i GPT-4 slutten på eksisterende problemer som vanligvis er tilstede i alle generative AI-produkter. Selv om OpenAI lovet modellen å være tryggere enn GPT-3.5 når det gjelder å nekte å svare på skadelige instruksjoner, kan den fortsatt generere hallusinasjoner og sosiale skjevheter. OpenAI-sjef Sam Altman til og med beskrevet GPT-4 som noe "fortsatt feil, fortsatt begrenset." Til tross for dette er teamet dedikert til kontinuerlig forbedring av modellen ettersom den fortsetter å tiltrekke seg mer oppmerksomhet fra publikum og ettersom Microsoft injiserer den i flere av produktene sine.