Hva er GPT-3 og hvordan vil det påvirke din nåværende jobb

Ikon for lesetid 3 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

gpt-3

GPT er forkortelse for Generative Pre-training Transformer (GPT), en språkmodell skrevet av Alec Radford og publisert i 2018 av OpenAI, Elon Musks forskningslaboratorium for kunstig intelligens. Den bruker en generativ språkmodell (hvor to nevrale nettverk perfeksjonerer hverandre ved konkurranse) og er i stand til å tilegne seg kunnskap om verden og behandle langdistanseavhengigheter ved å forhåndstrene på forskjellige sett med skriftlig materiale med lange strekninger med sammenhengende tekst.

GPT-2 (Generative Pretrained Transformer 2) ble annonsert i februar 2019 og er en uovervåket transformatorspråkmodell trent på 8 millioner dokumenter for totalt 40 GB tekst fra artikler delt via Reddit-innsendinger. Elon Musk var berømt motvillig til å gi den ut fordi han var bekymret for at den kunne brukes til å spamme sosiale nettverk med falske nyheter.

I mai 2020 annonserte OpenAI GPT-3 (Generative Pretrained Transformer 3), en modell som inneholder to størrelsesordener flere parametere enn GPT-2 (175 milliarder mot 1.5 milliarder parametere) og som tilbyr en dramatisk forbedring i forhold til GPT-2.

Gitt en tekstmelding, vil GPT-3 returnere en tekstfullføring, og forsøke å matche mønsteret du ga den. Du kan "programmere" den ved å vise den bare noen få eksempler på hva du vil at den skal gjøre, og den vil levere en komplett artikkel eller historie, for eksempel teksten nedenfor, skrevet utelukkende av GPT-3.

Bilde

GPT-3 oppnår sterk ytelse på mange NLP-datasett, inkludert oversettelse, besvarelse av spørsmål og lukkede oppgaver, i tillegg til flere oppgaver som krever resonnement eller domenetilpasning underveis, for eksempel å rydde opp ord, bruke et nytt ord i en setning, eller utføre 3-sifret aritmetikk. GPT-3 kan generere prøver av nyhetsartikler som menneskelige evaluatorer har problemer med å skille fra artikler skrevet av mennesker.

Den siste applikasjonen har alltid bekymret OpenAI. GPT-3 er for øyeblikket tilgjengelig som en åpen beta, med en betalt privat beta som forventes å være tilgjengelig etter hvert. OpenAI sa at de vil avslutte API-tilgang for åpenbart skadelige brukstilfeller, for eksempel trakassering, spam, radikalisering eller astroturfing.

Mens den mest åpenbart truede befolkningen er de som produserer skriftlig arbeid, for eksempel manusforfattere, har AI-utviklere allerede funnet overraskende applikasjoner, som å bruke GPT-3 til å skrive kode.

Sharif Shameem skrev for eksempel en layoutgenerator der du beskriver i ren tekst hva du ønsker, og modellen genererer den passende koden.

Jordan Singer opprettet på samme måte en Figma-plugin som lar en lage apper ved å bruke ren tekstbeskrivelser.

Det kan til og med brukes til å diagnostisere astma og foreskrive medisiner.

Andre applikasjoner er som en søkemotor eller orakel, og kan til og med brukes til å forklare og utvide vanskelige konsepter.

Selv om det ser ut til at denne tilnærmingen kan føre direkte til en generell AI som kan forstå, resonnere og snakke som et menneske, advarer OpenAI om at de kan ha støtt på grunnleggende oppskaleringsproblemer, med GPT-3 som krever flere tusen petaflop/s-dager med beregning , sammenlignet med titalls petaflop/s-dager for hele GPT-2. Mens vi er nærmere ser det ut til at gjennombruddet som vil gjøre alle jobbene våre foreldet, fortsatt er et stykke unna.

Les mer om GPT-3 på GitHub her.

Mer om temaene: gpt-3, åpenAI

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *