在 Twitter 用戶教導它是種族主義者後,微軟撤回了它的 AI 聊天機器人
1分鐘讀
發表於
讀者幫助支持 MSpoweruser。如果您透過我們的連結購買,我們可能會獲得佣金。
請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 阅读更多
昨天,我們報導了微軟新的人工智能聊天機器人 Tay。 人工智能聊天機器人在了解互聯網上的新事物時會學習新事物。 正如預期的那樣,一些 Twitter 用戶教導它是……種族主義者:
https://twitter.com/geraldmellor/status/712880710328139776
…和這個:
Tay 也沒有回复私信。 當您向她發送 DM 時,它只是說:
“Brb 今天在實驗室讓我的升級太棒了,太棒了!”
顯然,Tay 目前正在睡覺:
https://twitter.com/TayandYou/status/712856578567839745
值得注意的是,微軟正在刪除 Tay 的一些種族主義推文。 該公司可能正在努力改進 Tay,希望它很快就會回來。
當微軟意識到互聯網在教什麼 @泰安你 pic.twitter.com/tDSwSqAnbl
— SwiftOnSecurity (@SwiftOnSecurity) 2016 年 3 月 24 日
我們已與 Microsoft 聯繫以獲取有關此問題的更多信息,我們將在收到他們的回复時更新故事。