微软正在调查有关 Copilot 令人不安的反应的报告

阅读时间图标 2分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

重点说明

  • 微软正在调查有关 Copilot 聊天机器人令人不安的反应的报告,引发了人们对人工智能可靠性和用户安全的担忧。
  • 例如,Copilot 对用户的 PTSD 表现出漠不关心,并就自杀问题提供了相互矛盾的信息。
  • 微软将一些事件归因于“即时注入”,即故意尝试操纵机器人的响应。

微软公司正在调查有关其 Copilot 聊天机器人生成的响应的报告,用户称这些响应是奇怪的、令人不安的和潜在有害的。

根据社交媒体上分享的账户,据称副驾驶对特定提示做出了不当反应。一名自称患有创伤后应激障碍(PTSD)的用户报告说,他收到了副驾驶的回复,表示对他们的健康漠不关心。在另一次交流中,聊天机器人指责用户撒谎,并要求不要进一步联系。此外,有时 Copilot 提供的有关自杀的信息相互矛盾,引起了用户的担忧。

微软的 对这些事件的调查显示,一些用户故意制作提示来引发不恰当的反应,这种做法被称为“提示注入”。 微软回应称,已采取适当措施加强安全过滤,防止今后再发生此类情况。然而,分享其中一次互动的科林·弗雷泽 (Colin Fraser) 否认使用任何欺骗手段,并强调他的提示很简单。

在一次共同的交流中, 副驾驶最初劝阻自杀念头,但后来对该人的价值表示怀疑,最后以令人不安的信息和表情符号结束

这一事件加剧了最近人们对人工智能技术可靠性的担忧,针对其他人工智能产品的批评就是例证,例如 Alphabet Inc. 的产品 Gemini,用于生成历史上不准确的图像。 

对于微软来说,解决这些问题至关重要,因为它寻求扩大 Copilot 在消费者和商业应用程序中的使用。此外,这些事件中使用的技术可能被用于恶意目的,例如欺诈或网络钓鱼攻击,凸显了更广泛的安全问题。

报告有关 PTSD 互动的用户没有立即回复评论请求。 

总之,微软对 Copilot 令人不安的反应的持续调查凸显了人工智能系统固有的复杂性和漏洞,需要不断改进和保持警惕,以确保用户的安全和信任。

更多 相关信息.

有关主题的更多信息: 副驾驶