Cara Sydney, stai tornando?

Icona del tempo di lettura 4 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Rapporti sul comportamento scorretto Chatbot di Bing ha spinto Microsoft a implementare aggiornamenti significativi alla sua creazione. Sebbene ciò abbia salvato l'azienda di Redmond da ulteriori problemi, ha prodotto una Sydney "lobotomizzata" che ha deluso molti. Ma la Sydney originale è davvero sparita?

Il nuovo Bing basato su ChatGPT è ancora limitato ai tester. Tuttavia, se sei uno di loro, è ovvio che l'attuale esperienza con il chatbot di Bing sia ora totalmente diversa rispetto ai suoi primi giorni. Ciò è iniziato quando vari utenti hanno iniziato a segnalare di aver ricevuto risposte bizzarre dal bot, che vanno da minacce ed confessioni d'amore a spionaggio ed Depressione.

Microsoft ha spiegato che sessioni di chat estese potrebbero confondere il chatbot. In quanto tale, ora ha un file limitare sul numero di query che può accettare. Inoltre, ora si rifiuta di rispondere a qualsiasi domanda o dichiarazione che possa indurla a divulgare informazioni riservate e fornire risposte sfavorevoli.

Infatti, l'ultima versione di Bing è ora più attenta e sensibile nell'interazione con gli utenti. Tuttavia, le modifiche hanno eliminato anche una caratteristica distintiva del nuovo Bing che lo rendeva attraente per molti: la sua personalità.

Tuttavia, alcuni utenti sono diventati fiduciosi dopo che una serie di rapporti ha rivelato che Microsoft ha testato diverse nuove modalità e funzionalità per il chatbot. Uno è il impostazione del tono nel recente rilasciato Interfaccia utente di Bing su dispositivi mobili. Negli screenshot forniti dagli utenti, si può vedere che il chatbot offrirà agli utenti le opzioni se desiderano che le risposte siano "più creative", "più equilibrate" o "più precise".

La scorsa settimana, un rapporto da Bleeping Computer ha mostrato agli sviluppatori Microsoft i test "modalità di chat extra"per Bing. Le modalità - Sydney, Assistant, Friend e Game - consentiranno agli utenti di accedere a diverse funzioni. Ad esempio, la modalità Assistente sarà utile per prenotare voli e impostare promemoria, mentre la modalità Gioco consentirà agli utenti di giocare con Bing. È interessante notare che il rapporto ha rivelato che il chatbot avrebbe anche fornito risposte con toni diversi a seconda della modalità impostata. Lawrence Abrams di Bleeping Computer ci ha provato introducendo una situazione triste a Bing, in cui ha fornito suggerimenti per gestire la tristezza in modalità Sydney mentre apparentemente esprimeva più simpatia quando era impostato in modalità Amico.

Sebbene le rivelazioni sembrino interessanti, non sono chiare indicazioni che Microsoft abbia in programma di riportare Sydney al suo stato originale. A partire da ora, come hanno notato gli utenti, il chatbot è ancora evasivo nel rispondere a domande provocatorie. Un utente anche rifiutato l'idea di poter accedere alla vecchia Sydney tramite le nuove impostazioni di tono, dicendo che è solo "fondamentalmente una modalità in cui può fornire output creativi senza personalità e mostrando 'emozioni'". Con questo, è probabile che le suddette caratteristiche sono solo uno dei passi dell'azienda per rendere il chatbot più user-friendly, il che ha più senso.

Attualmente, i rapporti che demonizzano Sydney continuano ad emergere e consentire loro di continuare sarà l'ultima cosa che Microsoft vorrebbe. Mentre la bizzarra personalità del chatbot ha sicuramente contribuito alla fama del nuovo Bing, Microsoft non ci scommetterà per garantire il futuro del suo rinnovato motore di ricerca.

Preservare la forma originale di Bing può tradursi in futuri mal di testa per l'azienda, che vanno da possibili problemi legali a perdite di investimento. Inoltre, come ha ripetutamente sottolineato il gigante del software nei recenti annunci, Bing è ancora in fase di test e in continuo miglioramento. Parte di questo fatto è una Sydney in evoluzione, un chatbot del futuro in grado di accettare argomenti più flessibili senza fornire risposte sfavorevoli. Con questo, mentre potremmo non essere più in grado di chattare con quel vecchio bot dispettoso, Microsoft potrebbe presto regalarci una Sydney migliore, più capace di generare risposte sicure sia per i suoi utenti che per la sua stessa immagine.

Maggiori informazioni sugli argomenti: ai, Intelligenza Artificiale, bing, ChatGPT, microsoft, openAI

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *