Microsoft ritira il suo chatbot AI dopo che gli utenti di Twitter gli hanno insegnato a essere razzista

Icona del tempo di lettura 1 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

tayai

Ieri abbiamo parlato del nuovo chatbot AI di Microsoft, Tay. Il chatbot AI impara cose nuove man mano che viene a conoscenza di nuove cose su Internet. Come previsto, alcuni utenti di Twitter hanno insegnato che è... razzista:

https://twitter.com/geraldmellor/status/712880710328139776

…e questo:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Anche Tay non risponde ai messaggi diretti. Quando le mandi un DM, dice semplicemente:

"Brb, oggi ho i miei aggiornamenti fantasiosi in laboratorio così ttyl!"

A quanto pare, Tay sta attualmente dormendo:

https://twitter.com/TayandYou/status/712856578567839745

Vale la pena notare che Microsoft sta eliminando alcuni dei tweet razzisti di Tay. L'azienda sta forse lavorando per migliorare Tay e, si spera, tornerà presto.

Abbiamo contattato Microsoft per ulteriori informazioni al riguardo e aggiorneremo la storia quando e se avremo notizie da loro.

Maggiori informazioni sugli argomenti: ai, Avanti, microsoft, tay, Twitter

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *