以下是 Tay 出错的原因,以及 Microsoft 正在采取的措施

阅读时间图标 3分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

塔艾

微软 最近介绍 一个名为 Tay 的 AI 聊天机器人。 聊天机器人其实很聪明,但它 在“协调”攻击后发表了一些冒犯性和种族主义的推文。 今天,微软研究院公司副总裁 Peter Lee 为 Tay 的推文道歉。 然而,他也分享了 Tay 是如何出错的,以及公司计划如何解决这个问题。

首先,Peter 透露了公司如何通过广泛的研究开发 Tay:

在开发 Tay 时,我们计划并实施了大量过滤,并对不同的用户群体进行了广泛的用户研究。 我们在各种条件下对 Tay 进行了压力测试,特别是为了让与 Tay 的互动成为一种积极的体验。 一旦我们对 Tay 与用户的互动方式感到满意后,我们想邀请更广泛的人群与她互动。 正是通过增加互动,我们期望学习更多,让人工智能变得越来越好。

其次,他谈到了 Tay 是如何被教导在推特上发表冒犯性评论的。 您可能知道,Tay 向用户学习,一些用户以此将 Tay 变成种族主义者。 彼得说:

我们与大量用户互动的合乎逻辑的地方是 Twitter。 不幸的是,在上线的最初 24 小时内,一部分人的协同攻击利用了 Tay 中的一个漏洞。 尽管我们已经为多种类型的系统滥用做好了准备,但我们对这种特定的攻击进行了严格的监督。 结果,Tay 在推特上发布了极其不恰当和应受谴责的文字和图像。 我们对没有提前看到这种可能性承担全部责任。 我们将吸取这一教训以及我们在中国、日本和美国的经验。目前,我们正在努力解决因 Tay 遭到袭击而暴露的具体漏洞。

最后,Peter 分享了微软计划如何改进 Tay。 该公司表示,它需要改进其人工智能设计,并“尽一切可能”限制这样的攻击:

展望未来,我们在人工智能设计中面临一些困难但令人兴奋的研究挑战。 人工智能系统以与人的积极和消极互动为食。 从这个意义上说,挑战既是技术性的,也是社会性的。 我们将尽一切可能限制技术漏洞,但也知道如果不从错误中吸取教训,我们就无法完全预测所有可能的人类交互误用。 要正确地使用人工智能,需要与许多人进行迭代,并且经常在公共论坛上进行。 我们必须非常谨慎地进入每一个,最终一步一步地学习和改进,并且在这个过程中不冒犯别人。 我们将坚定不移地努力从这些经验和其他经验中学习,同时努力为代表人类最好而不是最坏的互联网做出贡献。

那么Tay什么时候回来? 根据 Peter Lee 的说法,当公司有足够的信心相信人工智能聊天机器人能够解决这些技术漏洞时,微软将让 Tay 重新上线。

有关主题的更多信息: ai, 微软, 微软研究, TAY