GPT-4 je zdaj na voljo naročnikom ChatGPT Plus
3 min. prebrati
Objavljeno dne
Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več
OpenAI končno predstavljen GPT-4. Po navedbah podjetja je njegov najnovejši model AI bolj natančen in učinkovit, saj lahko obdela več vnosa brez zmede. Poleg tega GPT-4 res ima multimodalno zmožnost, ki mu omogoča obdelavo slik. GPT-4 je zdaj na voljo naročnikom ChatGPT Plus, razvijalci pa lahko zdaj dostopajo do njega kot API-ja.
po Poročila o njegovem prihodu prejšnji teden je GPT-4 končno tukaj, dostavljen prek infrastrukture, optimizirane za AI Azure. Učen je bil na superračunalnikih Microsoft Azure AI in ima nekaj opaznih razlik od GPT-3.5. Zlasti GPT-4 zadel v 88. percentilu in več v različnih testih in merilih uspešnosti.
"V priložnostnem pogovoru je razlika med GPT-3.5 in GPT-4 lahko subtilna," pravi OpenAI v objavi na blogu. "Razlika se pokaže, ko kompleksnost naloge doseže zadosten prag - GPT-4 je bolj zanesljiv, ustvarjalen in zmožen obdelati veliko bolj niansirana navodila kot GPT-3.5."
Na splošno je OpenAI dejal, da je 82 % manj možno, da se bo novi model odzval na omejene teme in zahteve, zaradi česar je varen za uporabnike. Izboljšana je tudi kakovost njegovega odziva, z do 40-odstotno verjetnostjo, da ustvari dejanske odgovore.
Velik del GPT-4 se osredotoča na njegovo sposobnost učinkovitejšega obravnavanja poizvedb. Kot je opozoril OpenAI, lahko zdaj sprejme 25,000 besed besedila, ne da bi prišlo do zmede. To je dobra novica za uporabnike, ki želijo izkoristiti ves potencial modela, saj bodo lahko v svojih vprašanjih in zahtevah navedli več podrobnosti in navodil. Največji poudarek GPT-4 pa je dodatek multimodalne zmogljivosti, kar je bilo eno največjih pričakovanj od modela, odkar so o njem poročali prejšnji teden. Z uporabo te nove zmožnosti lahko GPT-4 zdaj obdeluje slikovne vnose in jih opisuje z besedili, čeprav še ni na voljo vsem strankam OpenAI, saj je še vedno v tehničnem testiranju s pomočjo Be My Eyes in njegove funkcije Virtual Volunteer .
»Na primer, če uporabnik pošlje sliko notranjosti svojega hladilnika, Virtual Volunteer ne bo le sposoben pravilno identificirati, kaj je v njem, ampak tudi ekstrapolirati in analizirati, kaj je mogoče pripraviti s temi sestavinami,« je OpenAi opisal funkcijo . "Orodje lahko nato ponudi tudi številne recepte za te sestavine in pošlje vodnik po korakih, kako jih narediti."
Vau, Bing lahko zdaj dejansko opisuje slike, zdaj ko ve, da uporablja GPT-4!
byu/BroskiPlaysYT inbing
Kljub temu se zdi, da je ta multimodalnost delno vključena v novi Bing. Microsoft je dejal, da chatbot njegovega iskalnika uporablja model od prejšnjega tedna. Vendar je pomembno omeniti, da je Bingova multimodalna funkcija še vedno omejena. Za začetek lahko sprejme samo slike prek povezav v spletu, ki jih bo opisal kot odgovor. Medtem bo klepetalni robot na zahtevo po slikah z opisi zagotovil najustreznejšo vsebino, vključno z rezultati slik in še več.
Poleg tega te izboljšave v GPT-4 ne pomenijo konca obstoječih težav, ki so običajno prisotne v vseh generativnih izdelkih AI. Čeprav je OpenAI obljubil, da bo model varnejši od GPT-3.5 v smislu zavračanja odzivanja na škodljiva navodila, lahko še vedno ustvarja halucinacije in družbene pristranskosti. Tudi generalni direktor OpenAI Sam Altman opisano GPT-4 kot nekaj "še vedno pomanjkljivega, še vedno omejenega." Kljub temu je ekipa predana nenehnemu izboljševanju modela, saj še naprej pritegne več pozornosti javnosti in ko ga Microsoft vnaša v več svojih izdelkov.
Uporabniški forum
Sporočila 0