GPT-4 ora disponibile per gli abbonati ChatGPT Plus

Icona del tempo di lettura 3 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

OpenAI finalmente svelato GPT-4. Secondo l'azienda, il suo ultimo modello di intelligenza artificiale è più preciso ed efficiente in quanto può gestire più input senza confusione. Oltre a ciò, GPT-4 ha davvero multimodale capacità, permettendogli di elaborare le immagini. GPT-4 è ora disponibile per gli abbonati ChatGPT Plus e gli sviluppatori possono ora accedervi come API.

Dopo rapporti riguardo al suo arrivo la scorsa settimana, GPT-4 è finalmente arrivato, fornito tramite l'infrastruttura ottimizzata per l'intelligenza artificiale di Azure. È stato addestrato sui supercomputer Microsoft Azure AI e presenta alcune notevoli differenze rispetto a GPT-3.5. In particolare, GPT-4 ha segnato nell'88° percentile e oltre in diversi test e benchmark. 

"In una conversazione casuale, la distinzione tra GPT-3.5 e GPT-4 può essere sottile", afferma OpenAI in un post sul blog. "La differenza emerge quando la complessità dell'attività raggiunge una soglia sufficiente: GPT-4 è più affidabile, creativo e in grado di gestire istruzioni molto più sfumate rispetto a GPT-3.5."

In generale, OpenAI ha affermato che è l'82% in meno di possibilità che il nuovo modello risponda ad argomenti e richieste ristretti, rendendolo sicuro per gli utenti. Anche la qualità della sua risposta è migliorata, con una probabilità fino al 40% di produrre risposte fattuali.

Gran parte di GPT-4 si concentra sulla sua capacità di gestire le query in modo più efficace. Come notato da OpenAI, ora può accettare 25,000 parole di testo senza creare confusione. Questa è una buona notizia per gli utenti che desiderano sfruttare appieno il potenziale del modello, in quanto potranno fornire maggiori dettagli e istruzioni nelle loro domande e richieste. Il più grande punto culminante di GPT-4, tuttavia, è l'aggiunta di una capacità multimodale, che era una delle maggiori aspettative dal modello da quando è stata segnalata la scorsa settimana. Utilizzando questa nuova funzionalità, GPT-4 può ora elaborare input di immagini e descriverli tramite testi, sebbene non sia ancora disponibile per tutti i clienti OpenAI poiché è ancora tecnicamente in fase di test con l'aiuto di Be My Eyes e la sua funzione Virtual Volunteer .

GPT-4 che descrive le immagini
Credito immagine: OpenAI

GPT-4 che descrive le immagini

"Ad esempio, se un utente invia un'immagine dell'interno del proprio frigorifero, il Volontario Virtuale non solo sarà in grado di identificare correttamente cosa c'è dentro, ma anche di estrapolare e analizzare cosa può essere preparato con quegli ingredienti", ha descritto OpenAi la funzione . "Lo strumento può anche offrire una serie di ricette per quegli ingredienti e inviare una guida passo passo su come realizzarli".

Wow Bing ora può effettivamente descrivere le immagini, ora che sa che sta usando GPT-4!
byu/BroskiPlaysYT inbing

Tuttavia, questa capacità di multimodalità sembra essere parzialmente introdotta nel nuovo Bing. Microsoft ha affermato che il chatbot del suo motore di ricerca ha eseguito il modello dalla scorsa settimana. Tuttavia, è importante notare che la funzionalità multimodale di Bing è ancora limitata. Per iniziare, può accettare solo immagini tramite collegamenti forniti sul Web, che descriverà come risposta. Nel frattempo, quando vengono richieste immagini utilizzando le descrizioni, il chatbot fornirà i contenuti più pertinenti, inclusi i risultati delle immagini e altro ancora.

Bing Chat utilizzando la funzionalità multimodale in risposta

In una nota a margine, questi miglioramenti in GPT-4 non significano la fine dei problemi esistenti comunemente presenti in tutti i prodotti di intelligenza artificiale generativa. Sebbene OpenAI abbia promesso al modello di essere più sicuro di GPT-3.5 in termini di rifiuto di rispondere a istruzioni dannose, può comunque generare allucinazioni e pregiudizi sociali. Anche il CEO di OpenAI, Sam Altman descritta GPT-4 come qualcosa di "ancora imperfetto, ancora limitato". Nonostante ciò, il team si dedica al miglioramento continuo del modello poiché continua ad attirare più attenzione da parte del pubblico e mentre Microsoft lo inietta in più dei suoi prodotti.

Forum degli utenti

0 messaggi