Microsoft umakne svojega klepetalnika z umetno inteligenco, potem ko so ga uporabniki Twitterja naučili, da je rasističen
1 min. prebrati
Objavljeno dne
Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več
Včeraj smo poročali o Microsoftovem novem klepetalnici z umetno inteligenco Tay. Klepetalnica z umetno inteligenco se nauči novih stvari, ko spozna nove stvari na internetu. Kot je bilo pričakovano, so nekateri uporabniki Twitterja učili, da je ... rasistično:
https://twitter.com/geraldmellor/status/712880710328139776
…in to:
Tudi Tay ne odgovarja na neposredna sporočila. Ko ji pošlješ DM, preprosto piše:
"Brb, kako mi je danes v laboratoriju všeč moje nadgradnje, tako lepo!"
Očitno Tay trenutno spi:
https://twitter.com/TayandYou/status/712856578567839745
Omeniti velja, da Microsoft briše nekaj Tayjevih rasističnih tvitov. Podjetje verjetno dela na izboljšanju Taya in upajmo, da se bo kmalu vrnil.
Ko je Microsoft spoznal, kaj uči internet @TayandYou pic.twitter.com/tDSwSqAnbl
— SwiftOnSecurity (@SwiftOnSecurity) Marec 24, 2016
Za več informacij o tem smo se obrnili na Microsoft, zgodbo pa bomo posodobili, ko in če nam bodo odgovorili.