Microsoft trekker ut sin AI-chatbot etter at Twitter-brukere lærte den å være rasistisk

Ikon for lesetid 1 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

tayai

I går rapporterte vi om Microsofts nye AI-chatbot, Tay. AI-chatboten lærer nye ting etter hvert som den blir kjent med nye ting på internett. Som forventet lærte noen Twitter-brukere det å være ... rasistisk:

https://twitter.com/geraldmellor/status/712880710328139776

…og dette:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Tay svarer heller ikke på direktemeldinger. Når du sender henne en DM, står det ganske enkelt:

"Brb får lyst på oppgraderingene mine på laboratoriet i dag, så ttyl!"

Tilsynelatende sover Tay for øyeblikket:

https://twitter.com/TayandYou/status/712856578567839745

Det er verdt å merke seg at Microsoft sletter noen av Tays rasistiske tweets. Selskapet jobber muligens med å forbedre Tay, og forhåpentligvis vil det være tilbake en gang snart.

Vi har kontaktet Microsoft for mer informasjon om dette, og vi vil oppdatere historien når og hvis vi hører tilbake fra dem.

Mer om temaene: ai, Kom igjen, microsoft, tay, twitter

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *