在 Twitter 用戶教導它是種族主義者後,微軟撤回了它的 AI 聊天機器人

閱讀時間圖標 1分鐘讀


讀者幫助支持 MSpoweruser。如果您透過我們的連結購買,我們可能會獲得佣金。 工具提示圖標

請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 阅读更多

塔艾

昨天,我們報導了微軟新的人工智能聊天機器人 Tay。 人工智能聊天機器人在了解互聯網上的新事物時會學習新事物。 正如預期的那樣,一些 Twitter 用戶教導它是……種族主義者:

https://twitter.com/geraldmellor/status/712880710328139776

…和這個:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Tay 也沒有回复私信。 當您向她發送 DM 時,它只是說:

“Brb 今天在實驗室讓我的升級太棒了,太棒了!”

顯然,Tay 目前正在睡覺:

https://twitter.com/TayandYou/status/712856578567839745

值得注意的是,微軟正在刪除 Tay 的一些種族主義推文。 該公司可能正在努力改進 Tay,希望它很快就會回來。

我們已與 Microsoft 聯繫以獲取有關此問題的更多信息,我們將在收到他們的回复時更新故事。

有關主題的更多資訊: ai, 加油, 微軟, TAY, 推特

發表評論

您的電子郵件地址將不會被發表。 必填字段標 *