Microsoft trekker ut sin AI-chatbot etter at Twitter-brukere lærte den å være rasistisk
1 min. lese
Publisert på
Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer
I går rapporterte vi om Microsofts nye AI-chatbot, Tay. AI-chatboten lærer nye ting etter hvert som den blir kjent med nye ting på internett. Som forventet lærte noen Twitter-brukere det å være ... rasistisk:
https://twitter.com/geraldmellor/status/712880710328139776
…og dette:
Tay svarer heller ikke på direktemeldinger. Når du sender henne en DM, står det ganske enkelt:
"Brb får lyst på oppgraderingene mine på laboratoriet i dag, så ttyl!"
Tilsynelatende sover Tay for øyeblikket:
https://twitter.com/TayandYou/status/712856578567839745
Det er verdt å merke seg at Microsoft sletter noen av Tays rasistiske tweets. Selskapet jobber muligens med å forbedre Tay, og forhåpentligvis vil det være tilbake en gang snart.
Da Microsoft skjønte hva Internett lærte @TayandYou pic.twitter.com/tDSwSqAnbl
— SwiftOnSecurity (@SwiftOnSecurity) Mars 24, 2016
Vi har kontaktet Microsoft for mer informasjon om dette, og vi vil oppdatere historien når og hvis vi hører tilbake fra dem.