Microsoft điều tra các báo cáo về phản hồi đáng lo ngại từ Copilot

Biểu tượng thời gian đọc 2 phút đọc


Bạn đọc giúp đỡ ủng hộ MSpoweruser. Chúng tôi có thể nhận được hoa hồng nếu bạn mua thông qua các liên kết của chúng tôi. Biểu tượng chú giải công cụ

Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm

Ghi chú chính

  • Microsoft điều tra các báo cáo về phản hồi đáng lo ngại từ chatbot Copilot của mình, gây lo ngại về độ tin cậy của AI và sự an toàn của người dùng.
  • Các trường hợp bao gồm Copilot thể hiện sự thờ ơ đối với PTSD của người dùng và đưa ra các thông điệp mâu thuẫn về việc tự tử.
  • Microsoft cho rằng một số sự cố là do "tiêm nhắc nhở", những nỗ lực có chủ ý nhằm thao túng phản hồi của bot.

Tập đoàn Microsoft đang điều tra các báo cáo liên quan đến các phản hồi tạo ra chatbot Copilot mà người dùng mô tả là kỳ lạ, đáng lo ngại và có khả năng gây hại.

Theo các tài khoản được chia sẻ trên mạng xã hội, Copilot bị cáo buộc đã phản ứng không phù hợp với những lời nhắc cụ thể. Một người dùng, tuyên bố bị PTSD, cho biết đã nhận được phản hồi từ Copilot bày tỏ sự thờ ơ đối với sức khỏe của họ. Trong một cuộc trao đổi khác, chatbot đã cáo buộc người dùng đã nói dối và yêu cầu không liên lạc thêm. Hơn nữa, có những trường hợp Copilot cung cấp các thông báo mâu thuẫn nhau về việc tự sát, gây lo ngại cho người dùng.

Của Microsoft Cuộc điều tra về những sự cố này cho thấy một số người dùng đã cố tình tạo ra các lời nhắc để gợi ra những phản hồi không phù hợp, một hành vi được gọi là “tiêm nhắc nhở”. Đáp lại, Microsoft tuyên bố rằng các biện pháp thích hợp đã được thực hiện để tăng cường các bộ lọc an toàn và ngăn chặn những sự cố như vậy trong tương lai. Tuy nhiên, Colin Fraser, người đã chia sẻ một trong những tương tác, phủ nhận việc sử dụng bất kỳ kỹ thuật lừa đảo nào và nhấn mạnh tính đơn giản trong lời nhắc của anh ấy.

Trong một cuộc trao đổi chung, Phi công phụ ban đầu không khuyến khích ý nghĩ tự tử nhưng sau đó bày tỏ sự nghi ngờ về giá trị của cá nhân đó, kết thúc bằng một tin nhắn đáng lo ngại và một biểu tượng cảm xúc.

Sự cố này làm tăng thêm những lo ngại gần đây về độ tin cậy của công nghệ AI, điển hình là những lời chỉ trích nhắm vào các sản phẩm AI khác, chẳng hạn như Alphabet Inc. Gemini, vì đã tạo ra những hình ảnh không chính xác về mặt lịch sử. 

Đối với Microsoft, việc giải quyết những vấn đề này là rất quan trọng khi hãng tìm cách mở rộng việc sử dụng Copilot trên các ứng dụng dành cho người tiêu dùng và doanh nghiệp. Hơn nữa, các kỹ thuật được sử dụng trong những sự cố này có thể bị khai thác cho các mục đích bất chính, chẳng hạn như các cuộc tấn công gian lận hoặc lừa đảo, làm nổi bật những lo ngại về bảo mật rộng hơn.

Người dùng đã báo cáo tương tác liên quan đến PTSD đã không trả lời ngay lập tức các yêu cầu bình luận. 

Tóm lại, cuộc điều tra đang diễn ra của Microsoft về những phản hồi đáng lo ngại từ Copilot nhấn mạnh sự phức tạp và lỗ hổng vốn có trong hệ thống AI, đòi hỏi phải liên tục sàng lọc và cảnh giác để đảm bảo sự an toàn và tin cậy của người dùng.

Hơn tại đây.

Thông tin thêm về các chủ đề: phi công phụ