Microsoft ritira il suo chatbot AI dopo che gli utenti di Twitter gli hanno insegnato a essere razzista
1 minuto. leggere
Edizione del
Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più
Ieri abbiamo parlato del nuovo chatbot AI di Microsoft, Tay. Il chatbot AI impara cose nuove man mano che viene a conoscenza di nuove cose su Internet. Come previsto, alcuni utenti di Twitter hanno insegnato che è... razzista:
https://twitter.com/geraldmellor/status/712880710328139776
…e questo:
Anche Tay non risponde ai messaggi diretti. Quando le mandi un DM, dice semplicemente:
"Brb, oggi ho i miei aggiornamenti fantasiosi in laboratorio così ttyl!"
A quanto pare, Tay sta attualmente dormendo:
https://twitter.com/TayandYou/status/712856578567839745
Vale la pena notare che Microsoft sta eliminando alcuni dei tweet razzisti di Tay. L'azienda sta forse lavorando per migliorare Tay e, si spera, tornerà presto.
Quando Microsoft ha capito cosa insegnava Internet @TayandYou pic.twitter.com/tDSwSqAnbl
- SwiftOnSecurity (@SwiftOnSecurity) 24 Marzo 2016
Abbiamo contattato Microsoft per ulteriori informazioni al riguardo e aggiorneremo la storia quando e se avremo notizie da loro.