Microsoft đang thực hiện các điều chỉnh đối với Tay để tránh các phản hồi không phù hợp

Biểu tượng thời gian đọc 1 phút đọc


Bạn đọc giúp đỡ ủng hộ MSpoweruser. Chúng tôi có thể nhận được hoa hồng nếu bạn mua thông qua các liên kết của chúng tôi. Biểu tượng chú giải công cụ

Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm

tayai

Vài giờ trở lại, chúng tôi báo cáo rằng Microsoft đã ngừng dịch vụ chatbot mới của mình, Tay. Hôm qua, Microsoft đã ra mắt Tay, một dự án máy học để biết thêm về sự tương tác của con người. Nó lan truyền trực tuyến và hàng nghìn người dùng bắt đầu tương tác với nó. Sau vài giờ ra mắt, Tay bắt đầu phản hồi theo những cách không phù hợp, bao gồm các bình luận phân biệt chủng tộc và lăng mạ vì cô học được chúng từ những lần tương tác với những kẻ troll trên mạng. Microsoft hiện đang thực hiện các điều chỉnh đối với dịch vụ để tránh các hành vi như vậy và hy vọng nó sẽ sớm hoạt động trở lại.

Đọc phản hồi của Microsoft về vấn đề này bên dưới,

“AI chatbot Tay là một dự án máy học, được thiết kế cho sự tham gia của con người. Nó là một thử nghiệm xã hội và văn hóa, cũng như nó là kỹ thuật. Thật không may, trong vòng 24 giờ đầu tiên sau khi trực tuyến, chúng tôi nhận thấy một số người dùng đã có nỗ lực phối hợp nhằm lạm dụng kỹ năng bình luận của Tay để khiến Tay phản hồi theo những cách không phù hợp. Do đó, chúng tôi đã đưa Tay ngoại tuyến và đang tiến hành điều chỉnh ”.

Thông tin thêm về các chủ đề: ai, chatbot, học máy, microsoft, Ngoại tuyến, Trực tuyến, dịch vụ, Tay

Bình luận

Chúng tôi sẽ không công khai email của bạn. Các ô đánh dấu * là bắt buộc *