GPT-4 on nyt ChatGPT Plus -tilaajien saatavilla

Lukuajan kuvake 3 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

OpenAI paljastettiin vihdoin GPT-4. Yrityksen mukaan sen uusin AI-malli on tarkempi ja tehokkaampi, koska se pystyy käsittelemään enemmän syöttöä ilman sekaannusta. Tämän lisäksi GPT-4:llä todellakin on multimodaalinen mahdollistaa kuvien käsittelyn. GPT-4 on nyt ChatGPT Plus -tilaajien saatavilla, ja kehittäjät voivat nyt käyttää sitä API:na.

Jälkeen raportit Viime viikolla saapumisestaan ​​GPT-4 on vihdoin täällä, toimitettuna Azuren tekoälylle optimoidun infrastruktuurin kautta. Se on koulutettu Microsoft Azure AI -supertietokoneilla, ja siinä on joitain merkittäviä eroja GPT-3.5:een. Erityisesti GPT-4 sijoitettiin 88. prosenttipisteessä ja sen yläpuolella eri testeissä ja vertailuarvoissa. 

"Satunnaisessa keskustelussa ero GPT-3.5:n ja GPT-4:n välillä voi olla hienovarainen", OpenAI sanoo blogiviestissä. "Ero tulee esiin, kun tehtävän monimutkaisuus saavuttaa riittävän kynnyksen – GPT-4 on luotettavampi, luovampi ja pystyy käsittelemään paljon vivahteikkaampia ohjeita kuin GPT-3.5."

Yleisesti ottaen OpenAI sanoi, että on 82 % vähemmän mahdollista, että uusi malli vastaa rajoitettuihin aiheisiin ja pyyntöihin, mikä tekee siitä turvallisen käyttäjille. Myös sen vastausten laatu paranee, ja jopa 40 %:n todennäköisyys tuottaa asiallisia vastauksia.

Suuri osa GPT-4:stä keskittyy sen kykyyn käsitellä kyselyitä tehokkaammin. Kuten OpenAI totesi, se voi nyt hyväksyä 25,000 4 sanaa tekstiä ilman sekaannusta. Tämä on hyvä uutinen käyttäjille, jotka haluavat hyödyntää mallin täyden potentiaalin, sillä he voivat antaa lisätietoja ja ohjeita kysymyksissään ja pyyntöissään. GPT-4:n suurin kohokohta on kuitenkin multimodaalisen ominaisuuden lisääminen, joka oli yksi suurimmista odotuksista mallilta sen jälkeen, kun se ilmoitettiin viime viikolla. Tämän uuden ominaisuuden avulla GPT-XNUMX voi nyt käsitellä kuvasyötteitä ja kuvata niitä tekstien avulla, vaikka se ei ole vielä kaikkien OpenAI-asiakkaiden käytettävissä, koska se on edelleen teknisesti testattavana Be My Eyesin ja sen Virtual Volunteer -ominaisuuden avulla. .

Kuvahyvitys: OpenAI

"Jos käyttäjä esimerkiksi lähettää kuvan jääkaappinsa sisältä, Virtual Volunteer ei vain pysty tunnistamaan oikein, mitä siinä on, vaan myös ekstrapoloi ja analysoi, mitä näistä ainesosista voidaan valmistaa", OpenAi kuvaili toimintoa. . "Työkalu voi myös tarjota useita reseptejä kyseisille ainesosille ja lähettää vaiheittaisen oppaan niiden valmistamiseen."

Vau Bing voi nyt todella kuvata kuvia, nyt kun se tietää, että se käyttää GPT-4:ää!
byu/BroskiPlaysYT inbing

Tästä huolimatta tämä multimodaalisuuskyky näyttää olevan osittain otettu käyttöön uusi Bing. Microsoft sanoi, että sen hakukoneen chatbot on käyttänyt mallia viime viikosta lähtien. On kuitenkin tärkeää huomata, että Bingin multimodaalinen ominaisuus on edelleen rajallinen. Aluksi se voi hyväksyä kuvia vain verkossa olevien linkkien kautta, joita se kuvailee vastauksena. Samaan aikaan kun chatbotilta pyydetään kuvia kuvauksen avulla, se tarjoaa osuvimman sisällön, mukaan lukien kuvatulokset ja paljon muuta.

Sivuhuomautuksena on, että nämä GPT-4:n parannukset eivät tarkoita kaikissa generatiivisissa tekoälytuotteissa yleisesti esiintyvien ongelmien loppumista. Vaikka OpenAI lupasi mallin olevan turvallisempi kuin GPT-3.5, koska se kieltäytyy vastaamasta haitallisiin ohjeisiin, se voi silti aiheuttaa hallusinaatioita ja sosiaalisia harhoja. jopa OpenAI:n toimitusjohtaja Sam Altman on kuvattu GPT-4 on "vielä puutteellinen, edelleen rajoitettu". Tästä huolimatta tiimi on omistautunut mallin jatkuvaan parantamiseen, koska se herättää yhä enemmän yleisön huomiota ja kun Microsoft lisää sitä useisiin tuotteisiinsa.

Lisää aiheista: ai, bing, ChatGPT, openAI