微軟正在調查 Copilot 令人不安的反應的報告

閱讀時間圖標 2分鐘讀


讀者幫助支持 MSpoweruser。如果您透過我們的連結購買,我們可能會獲得佣金。 工具提示圖標

請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 阅读更多

重點說明

  • 微軟正在調查 Copilot 聊天機器人令人不安的反應的報告,引發了人們對人工智慧可靠性和用戶安全性的擔憂。
  • 例如,Copilot 對使用者的 PTSD 表現出漠不關心,並就自殺問題提供了相互矛盾的資訊。
  • 微軟將一些事件歸因於“即時注入”,即故意嘗試操縱機器人的回應。

微軟公司正在調查有關其 Copilot 聊天機器人產生的回應的報告,用戶稱這些回應是奇怪的、令人不安的和潛在有害的。

根據社交媒體上分享的帳戶,據稱副駕駛對特定提示做出了不當反應。一名自稱患有創傷後壓力症候群(PTSD)的用戶報告說,他收到了副駕駛的回复,表示對他們的健康漠不關心。在另一次交流中,聊天機器人指責用戶撒謊,並要求不要進一步聯繫。此外,有時 Copilot 提供的有關自殺的資訊相互矛盾,引起了用戶的擔憂。

微軟的 對這些事件的調查顯示,一些用戶故意製作提示來引發不適當的反應,這種做法被稱為「提示注入」。 微軟回應稱,已採取適當措施加強安全過濾,防止未來發生此類情況。然而,分享其中一次互動的 Colin Fraser 否認使用任何欺騙手段,並強調他的提示很簡單。

在一次共同的交流中, 副駕駛最初勸阻自殺念頭,但後來對該人的價值表示懷疑,最後以令人不安的訊息和表情符號結束

這事件加劇了最近人們對人工智慧技術可靠性的擔憂,針對其他人工智慧產品的批評就是例證,例如 Alphabet Inc. 的產品 Gemini,用於產生歷史上不準確的影像。 

對於微軟來說​​,解決這些問題至關重要,因為它尋求擴大 Copilot 在消費者和商業應用程式中的使用。此外,這些事件中使用的技術可能被用於惡意目的,例如詐欺或網路釣魚攻擊,凸顯了更廣泛的安全問題。

報告有關 PTSD 互動的用戶沒有立即回覆評論請求。 

總而言之,微軟對 Copilot 令人不安的反應的持續調查凸顯了人工智慧系統固有的複雜性和漏洞,需要不斷改進和保持警惕,以確保用戶的安全和信任。

更多 請點擊這裡.

有關主題的更多資訊: 副駕駛