Microsoft sta apportando modifiche a Tay per evitare risposte inappropriate

Icona del tempo di lettura 1 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

tayai

Poche ore fa, noi segnalati che Microsoft ha già interrotto il suo nuovo servizio di chatbot, Tay. Ieri Microsoft ha lanciato Tay, un progetto di machine learning per saperne di più sull'interazione umana. È diventato virale online e migliaia di utenti hanno iniziato a interagire con esso. Dopo diverse ore dal lancio, Tay ha iniziato a rispondere in modi inappropriati, inclusi commenti razzisti e offensivi, perché li ha appresi dalle sue interazioni con i troll di Internet. Microsoft sta ora apportando modifiche al servizio per evitare tale comportamento e si spera che torni presto online.

Leggi la risposta di Microsoft in merito a questo problema di seguito,

“Il chatbot AI Tay è un progetto di apprendimento automatico, progettato per il coinvolgimento umano. È tanto un esperimento sociale e culturale, quanto tecnico. Sfortunatamente, entro le prime 24 ore dall'essere online, ci siamo resi conto di uno sforzo coordinato da parte di alcuni utenti per abusare delle capacità di commento di Tay per far sì che Tay rispondesse in modi inappropriati. Di conseguenza, abbiamo portato Tay offline e stiamo apportando modifiche".

Maggiori informazioni sugli argomenti: ai, chatbot, machine learning, microsoft, offline, online, servizio, tay

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *