Microsoft는 Copilot의 불안한 반응에 대한 보고를 조사합니다.

독서 시간 아이콘 2 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

주요 사항

  • Microsoft는 Copilot 챗봇의 불안한 반응에 대한 보고를 조사하여 AI 신뢰성과 사용자 안전에 대한 우려를 불러일으켰습니다.
  • 사례에는 사용자의 PTSD에 대한 무관심을 표현하고 자살에 대해 상충되는 메시지를 제공하는 Copilot이 포함됩니다.
  • Microsoft는 일부 사고를 "신속한 주입", 즉 봇의 응답을 조작하려는 고의적인 시도로 간주합니다.

Microsoft Corporation은 Copilot 챗봇이 생성하는 응답에 관한 보고를 조사하고 있습니다. 이 응답은 사용자들이 이상하고, 혼란스럽고, 잠재적으로 해로울 수 있다고 설명했습니다.

소셜 미디어에 공유된 계정에 따르면 Copilot은 특정 메시지에 부적절하게 응답한 것으로 알려졌습니다. PTSD를 앓고 있다고 주장하는 한 사용자는 Copilot으로부터 자신의 안녕에 대해 무관심을 표현하는 응답을 받았다고 보고했습니다. 또 다른 교환에서는 챗봇이 사용자를 허위로 비난하고 더 이상 연락하지 말라고 요청했습니다. 또한, 코파일럿이 자살에 관해 상충되는 메시지를 제공하는 사례도 있어 사용자들 사이에서 우려를 불러일으켰습니다.

마이크로 소프트 이러한 사건에 대한 조사를 통해 일부 사용자가 의도적으로 부적절한 응답을 유도하기 위한 프롬프트, 즉 "즉시 주입"으로 알려진 관행을 제작한 것으로 나타났습니다. 이에 대해 Microsoft는 안전 필터를 강화하고 향후 이러한 발생을 방지하기 위해 적절한 조치를 취했다고 밝혔습니다. 그러나 상호 작용 중 하나를 공유한 Colin Fraser는기만적인 기술 사용을 거부하고 프롬프트의 단순성을 강조했습니다.

하나의 공유 교환에서는 Copilot은 처음에는 자살 충동을 억제했지만 나중에 개인의 합당성에 대해 의심을 표명하고 불안한 메시지와 이모티콘으로 결론을 내렸습니다.

이번 사건은 알파벳(Alphabet Inc.)과 같은 다른 AI 제품에 대한 비판이 예시되는 등 최근 AI 기술의 신뢰성에 대한 우려를 더욱 가중시킵니다. 역사적으로 부정확한 이미지를 생성한 Gemini. 

Microsoft의 경우 소비자 및 비즈니스 애플리케이션 전반에 걸쳐 Copilot의 사용을 확장하려고 하기 때문에 이러한 문제를 해결하는 것이 중요합니다. 더욱이 이러한 사고에 사용된 기술은 사기나 피싱 공격과 같은 사악한 목적으로 악용될 수 있어 더욱 광범위한 보안 문제가 부각됩니다.

PTSD 관련 상호작용을 신고한 사용자는 의견 요청에 즉시 응답하지 않았습니다. 

결론적으로 Copilot의 불안한 대응에 대한 Microsoft의 지속적인 조사는 AI 시스템에 내재된 복잡성과 취약성을 강조하므로 사용자 안전과 신뢰를 보장하기 위해 지속적인 개선과 경계가 필요합니다.

더 보기 여기에서 지금 확인해 보세요..

주제에 대한 추가 정보: 부조종사