Mikä on GPT-3 ja miten se vaikuttaa nykyiseen työhösi

Lukuajan kuvake 3 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

gpt-3

GPT on lyhenne sanoista Generative Pre-training Transformer (GPT), kielimalli, jonka on kirjoittanut Alec Radford ja julkaissut vuonna 2018 OpenAI, Elon Musksin tekoälyn tutkimuslaboratorio. Se käyttää generatiivista kielen mallia (jossa kaksi hermoverkkoa täydentävät toisiaan kilpailemalla) ja pystyy hankkimaan tietoa maailmasta ja käsittelemään pitkän kantaman riippuvuuksia harjoittelemalla esikoulutusta erilaisista kirjoitetuista aineistoista, joissa on pitkiä vierekkäisiä tekstejä.

GPT-2 (Generative Pretrained Transformer 2) julkistettiin helmikuussa 2019, ja se on valvomaton muuntajakielimalli, joka on koulutettu 8 miljoonalle asiakirjalle yhteensä 40 Gt:n tekstistä Reddit-lähetysten kautta jaetuista artikkeleista. Elon Musk oli tunnetusti haluton julkaisemaan sitä, koska hän oli huolissaan siitä, että sitä voitaisiin käyttää roskapostin lähettämiseen sosiaalisiin verkostoihin valeuutisilla.

Toukokuussa 2020 OpenAI julkisti GPT-3:n (Generative Pretrained Transformer 3), mallin, joka sisältää kaksi suuruusluokkaa enemmän parametreja kuin GPT-2 (175 miljardia vs. 1.5 miljardia parametria) ja joka tarjoaa dramaattisen parannuksen GPT-2:een.

GPT-3 palauttaa tekstikehotteen yhteydessä tekstin ja yrittää vastata antamaasi kuviota. Voit "ohjelmoida" sen näyttämällä sille vain muutaman esimerkin siitä, mitä haluat sen tekevän, ja se toimittaa täydellisen artikkelin tai tarinan, kuten alla olevan tekstin, jonka on kirjoittanut kokonaan GPT-3.

Kuva

GPT-3 saavuttaa vahvan suorituskyvyn monissa NLP-tietojoukoissa, mukaan lukien käännös-, kysymysvastaus- ja sulkemistehtävät sekä useat tehtävät, jotka edellyttävät nopeaa päättelyä tai toimialueen mukauttamista, kuten sanojen salauksen purkamista, käyttämällä uutta sanaa lausetta tai 3-numeroista aritmetiikkaa. GPT-3 voi luoda näytteitä uutisartikkeleista, joita arvioijien on vaikea erottaa ihmisten kirjoittamista artikkeleista.

Viimeinen sovellus on aina huolestuttanut OpenAI:ta. GPT-3 on tällä hetkellä saatavilla avoimena betaversiona, ja maksullisen yksityisen betaversion odotetaan olevan saatavilla myöhemmin. OpenAI ilmoitti lopettavansa API-käytön ilmeisen haitallisten käyttötapausten, kuten häirinnän, roskapostin, radikalisoitumisen tai astroturfingin, vuoksi.

Vaikka ilmeisimmin uhanalaisin väestö on kirjallista työtä tuottavat, kuten käsikirjoittajat, tekoälykehittäjät ovat jo löytäneet yllättäviä sovelluksia, kuten GPT-3:n käyttämisen koodin kirjoittamiseen.

Esimerkiksi Sharif Shameem kirjoitti asettelugeneraattorin, jossa kuvailet pelkällä tekstillä mitä haluat, ja malli luo sopivan koodin.

Jordan Singer loi vastaavasti Figma-laajennuksen, jonka avulla voidaan luoda sovelluksia pelkillä tekstikuvauksilla.

Sitä voidaan käyttää jopa astman diagnosointiin ja lääkkeiden määräämiseen.

Muut sovellukset ovat hakukone tai jonkinlainen oraakkeli, ja niitä voidaan jopa käyttää selittämään ja laajentamaan vaikeita käsitteitä.

Vaikka näyttää siltä, ​​että tämä lähestymistapa saattaa johtaa suoraan yleiseen tekoälyyn, joka pystyy ymmärtämään, järkeilemään ja keskustelemaan kuin ihminen, OpenAI varoittaa, että he ovat saattaneet törmätä perustavanlaatuisiin skaalausongelmiin, sillä GPT-3 vaatii useita tuhansia petaflopsia/s-päivän laskentaa. , verrattuna kymmeniin petaflop/s-päiviin koko GPT-2:lla. Kun olemme lähempänä, näyttää siltä, ​​että läpimurto, joka tekee kaikista työpaikoistamme vanhentuneita, on vielä kaukana.

Lue lisää GPT-3:sta GitHubissa täällä.

Lisää aiheista: gpt-3, openAI

Jätä vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *