Microsoft povlači svoj AI chatbot nakon što su ga korisnici Twittera naučili da bude rasistički
1 min. čitati
Objavljeno na
Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više
Jučer smo izvijestili o Microsoftovom novom AI chatbotu, Tayu. AI chatbot uči nove stvari dok upoznaje nove stvari na internetu. Kao što se i očekivalo, neki korisnici Twittera poučili su da je to… rasističko:
https://twitter.com/geraldmellor/status/712880710328139776
…i to:
Tay također ne odgovara na izravne poruke. Kada joj pošaljete DM, jednostavno piše:
“Brb kako mi se danas sviđaju moje nadogradnje u laboratoriju tako lijepo!”
Navodno, Tay trenutno spava:
https://twitter.com/TayandYou/status/712856578567839745
Vrijedi napomenuti da Microsoft briše neke od Tayevih rasističkih tvitova. Tvrtka vjerojatno radi na poboljšanju Taya i nadamo se da će se uskoro vratiti.
Kad je Microsoft shvatio što Internet uči @TayandYou pic.twitter.com/tDSwSqAnbl
— SwiftOnSecurity (@SwiftOnSecurity) Ožujak 24, 2016
Obratili smo se Microsoftu za više informacija o tome, a ažurirat ćemo priču kada i ako nam se jave.