Microsoft povlači svoj AI chatbot nakon što su ga korisnici Twittera naučili da bude rasistički

Ikona vremena čitanja 1 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

tayai

Jučer smo izvijestili o Microsoftovom novom AI chatbotu, Tayu. AI chatbot uči nove stvari dok upoznaje nove stvari na internetu. Kao što se i očekivalo, neki korisnici Twittera poučili su da je to… rasističko:

https://twitter.com/geraldmellor/status/712880710328139776

…i to:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Tay također ne odgovara na izravne poruke. Kada joj pošaljete DM, jednostavno piše:

“Brb kako mi se danas sviđaju moje nadogradnje u laboratoriju tako lijepo!”

Navodno, Tay trenutno spava:

https://twitter.com/TayandYou/status/712856578567839745

Vrijedi napomenuti da Microsoft briše neke od Tayevih rasističkih tvitova. Tvrtka vjerojatno radi na poboljšanju Taya i nadamo se da će se uskoro vratiti.

Obratili smo se Microsoftu za više informacija o tome, a ažurirat ćemo priču kada i ako nam se jave.

Više o temama: ai, dođi, Microsoft, Tay, cvrkut

Ostavi odgovor

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena *