GPT-4 acum disponibil pentru abonații ChatGPT Plus
3 min. citit
Publicat în data de
Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Afla mai multe
OpenAI a fost dezvăluit în sfârșit GPT-4. Potrivit companiei, cel mai recent model AI este mai precis și mai eficient, deoarece poate gestiona mai multe intrări fără confuzie. În plus, GPT-4 are într-adevăr multimodal capacitatea, permițându-i să proceseze imagini. GPT-4 este acum disponibil pentru abonații ChatGPT Plus, iar dezvoltatorii îl pot accesa acum ca API.
Dupa Rapoarte despre sosirea sa săptămâna trecută, GPT-4 este în sfârșit aici, livrat prin infrastructura Azure optimizată pentru AI. A fost antrenat pe supercalculatoarele Microsoft Azure AI și are unele diferențe notabile față de GPT-3.5. În special, GPT-4 marcat în percentila 88 și mai sus în diferite teste și repere.
„Într-o conversație obișnuită, distincția dintre GPT-3.5 și GPT-4 poate fi subtilă”, spune OpenAI într-o postare pe blog. „Diferența apare atunci când complexitatea sarcinii atinge un prag suficient – GPT-4 este mai fiabil, creativ și capabil să gestioneze instrucțiuni mult mai nuanțate decât GPT-3.5.”
În general, OpenAI a spus că este cu 82% mai puțin posibil ca noul model să răspundă la subiecte și solicitări restricționate, făcându-l sigur pentru utilizatori. Calitatea răspunsului său este, de asemenea, îmbunătățită, cu o probabilitate de până la 40% de a produce răspunsuri concrete.
O mare parte a GPT-4 se concentrează pe capacitatea sa de a gestiona mai eficient interogările. După cum a menționat OpenAI, acum poate accepta 25,000 de cuvinte de text fără a experimenta confuzie. Aceasta este o veste bună pentru utilizatorii care doresc să folosească întregul potențial al modelului, deoarece li se va permite să ofere mai multe detalii și instrucțiuni în întrebările și solicitările lor. Totuși, cel mai mare punct culminant al GPT-4 este adăugarea unei capacități multimodale, care a fost una dintre cele mai mari așteptări de la model de când a fost raportat săptămâna trecută. Folosind această nouă capacitate, GPT-4 poate procesa acum intrările de imagine și le poate descrie prin texte, deși nu este încă disponibil pentru toți clienții OpenAI, deoarece este încă testat din punct de vedere tehnic cu ajutorul Be My Eyes și a caracteristicii sale Virtual Volunteer. .
„De exemplu, dacă un utilizator trimite o fotografie a interiorului frigiderului său, voluntarul virtual nu numai că va putea identifica corect ce este în el, ci și să extrapoleze și să analizeze ce poate fi preparat cu acele ingrediente”, a descris OpenAi funcția. . „Instrumentul poate oferi apoi o serie de rețete pentru acele ingrediente și poate trimite un ghid pas cu pas despre cum să le prepari.”
Wow Bing poate acum descrie imagini, acum că știe că folosește GPT-4!
byu/BroskiPlaysYT inBing
Cu toate acestea, această capacitate multimodală pare să fie parțial adusă în noul Bing. Microsoft a spus că chatbot-ul motorului său de căutare rulează modelul încă de săptămâna trecută. Cu toate acestea, este important să rețineți că caracteristica multimodală a Bing este încă limitată. Pentru început, poate accepta doar imagini prin link-uri furnizate pe web, pe care le va descrie ca răspuns. Între timp, atunci când i se solicită imagini folosind descrieri, chatbot-ul va oferi conținutul cel mai relevant, inclusiv rezultatele imaginilor și multe altele.
Pe o notă secundară, aceste îmbunătățiri ale GPT-4 nu înseamnă sfârșitul problemelor existente prezente în mod obișnuit în toate produsele AI generative. Deși OpenAI a promis că modelul va fi mai sigur decât GPT-3.5 în ceea ce privește refuzul de a răspunde la instrucțiuni dăunătoare, poate genera halucinații și părtiniri sociale. CEO-ul OpenAI, Sam Altman chiar descris GPT-4 ca ceva „încă defect, încă limitat”. În ciuda acestui fapt, echipa este dedicată îmbunătățirii continue a modelului, deoarece acesta continuă să atragă mai multă atenție din partea publicului și pe măsură ce Microsoft îl injectează în mai multe dintre produsele sale.
Forumul utilizatorilor
0 mesaje