Microsoft trækker sin AI-chatbot efter Twitter-brugere har lært den at være racistisk

Ikon for læsetid 1 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

tayai

I går rapporterede vi om Microsofts nye AI-chatbot, Tay. AI-chatbotten lærer nye ting, efterhånden som den lærer nye ting at kende på internettet. Som forventet lærte nogle Twitter-brugere det at være ... racistisk:

https://twitter.com/geraldmellor/status/712880710328139776

…og dette:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Tay svarer heller ikke på direkte beskeder. Når du sender hende en DM, står der blot:

"Brb får lyst til mine opgraderinger i laboratoriet i dag, så ttyl!"

Tilsyneladende sover Tay i øjeblikket:

https://twitter.com/TayandYou/status/712856578567839745

Det er værd at bemærke, at Microsoft sletter nogle af Tays racistiske tweets. Virksomheden arbejder muligvis på at forbedre Tay, og forhåbentlig kommer den snart tilbage.

Vi har kontaktet Microsoft for mere information om dette, og vi vil opdatere historien, når og hvis vi hører tilbage fra dem.

Mere om emnerne: ai, Kom nu, microsoft, tay, twitter

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *