GPT-4 sada dostupan pretplatnicima na ChatGPT Plus

Ikona vremena čitanja 3 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

OpenAI konačno predstavljen GPT-4. Prema tvrtki, njezin najnoviji AI model je precizniji i učinkovitiji jer može podnijeti više unosa bez zabune. Osim toga, GPT-4 doista ima multimodalni sposobnost, što mu omogućuje obradu slika. GPT-4 je sada dostupan pretplatnicima na ChatGPT Plus, a programeri mu sada mogu pristupiti kao API-ju.

nakon izvješća o njegovom dolasku prošlog tjedna, GPT-4 je konačno ovdje, isporučen putem Azureove infrastrukture optimizirane za AI. Uvježban je na Microsoft Azure AI superračunalima i ima neke značajne razlike od GPT-3.5. Konkretno, GPT-4 zabio u 88. percentilu i više u različitim testovima i mjerilima. 

"U ležernom razgovoru, razlika između GPT-3.5 i GPT-4 može biti suptilna", kaže OpenAI u postu na blogu. "Razlika dolazi do izražaja kada složenost zadatka dosegne dovoljan prag — GPT-4 je pouzdaniji, kreativniji i sposobniji obraditi mnogo više nijansiranih uputa od GPT-3.5."

Općenito, OpenAI je rekao da je 82% manje moguće da će novi model odgovoriti na ograničene teme i zahtjeve, što ga čini sigurnim za korisnike. Kvaliteta njegovog odgovora također je poboljšana, s do 40% vjerojatnosti davanja činjeničnih odgovora.

Veliki dio GPT-4 fokusiran je na njegovu sposobnost učinkovitijeg rukovanja upitima. Kao što je OpenAI primijetio, sada može prihvatiti 25,000 riječi teksta bez zabune. Ovo je dobra vijest za korisnike koji žele iskoristiti puni potencijal modela jer će im biti dopušteno dati više detalja i uputa u svojim pitanjima i zahtjevima. Ipak, najveći vrhunac GPT-4 je dodavanje multimodalne sposobnosti, što je bilo jedno od najvećih očekivanja od modela otkad je objavljen prošlog tjedna. Koristeći ovu novu mogućnost, GPT-4 sada može obraditi ulazne slike i opisati ih kroz tekstove, iako još nije dostupan svim korisnicima OpenAI jer je tehnički još uvijek u fazi testiranja uz pomoć Be My Eyes i njegove značajke Virtual Volunteer .

GPT-4 koji opisuje slike
Zasluga za sliku: OpenAI

GPT-4 koji opisuje slike

"Na primjer, ako korisnik pošalje sliku unutrašnjosti svog hladnjaka, Virtualni volonter ne samo da će moći točno identificirati što je u njemu, već i ekstrapolirati i analizirati što se može pripremiti s tim sastojcima", opisao je OpenAi funkciju . "Alat također može ponuditi niz recepata za te sastojke i poslati korak po korak vodič kako ih napraviti."

Wow Bing sada zapravo može opisivati ​​slike, sada kada zna da koristi GPT-4!
byu/BroskiPlaysYT inBing

Unatoč tome, čini se da je ova mogućnost multimodalnosti djelomično uključena u novi Bing. Microsoft je rekao da chatbot njegove tražilice pokreće model od prošlog tjedna. Međutim, važno je napomenuti da je Bingova multimodalna značajka još uvijek ograničena. Za početak, može prihvatiti samo slike putem poveznica na webu, koje će opisati kao odgovor. U međuvremenu, kada se zatraže slike pomoću opisa, chatbot će pružiti najrelevantniji sadržaj, uključujući rezultate slika i više.

Bing Chat koristi multimodalnu značajku kao odgovor

S druge strane, ova poboljšanja u GPT-4 ne znače kraj postojećih problema koji su obično prisutni u svim generativnim AI proizvodima. Iako je OpenAI obećao da će model biti sigurniji od GPT-3.5 u smislu odbijanja reagiranja na štetne upute, još uvijek može generirati halucinacije i društvene predrasude. CEO OpenAI-a Sam Altman čak opisan GPT-4 kao nešto "još uvijek manjkavo, još uvijek ograničeno." Unatoč tome, tim je posvećen kontinuiranom poboljšanju modela kako on nastavlja privlačiti sve više pozornosti javnosti i kako ga Microsoft ubrizgava u više svojih proizvoda.

Više o temama: ai, Bing, ChatGPT, otvoriAI