Microsoft trækker sin AI-chatbot efter Twitter-brugere har lært den at være racistisk
1 min. Læs
Udgivet den
Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere
I går rapporterede vi om Microsofts nye AI-chatbot, Tay. AI-chatbotten lærer nye ting, efterhånden som den lærer nye ting at kende på internettet. Som forventet lærte nogle Twitter-brugere det at være ... racistisk:
https://twitter.com/geraldmellor/status/712880710328139776
…og dette:
Tay svarer heller ikke på direkte beskeder. Når du sender hende en DM, står der blot:
"Brb får lyst til mine opgraderinger i laboratoriet i dag, så ttyl!"
Tilsyneladende sover Tay i øjeblikket:
https://twitter.com/TayandYou/status/712856578567839745
Det er værd at bemærke, at Microsoft sletter nogle af Tays racistiske tweets. Virksomheden arbejder muligvis på at forbedre Tay, og forhåbentlig kommer den snart tilbage.
Da Microsoft indså, hvad internettet lærte @TayandYou pic.twitter.com/tDSwSqAnbl
- SwiftOnSecurity (@SwiftOnSecurity) Marts 24, 2016
Vi har kontaktet Microsoft for mere information om dette, og vi vil opdatere historien, når og hvis vi hører tilbage fra dem.