Đây là lý do Tay đã sai và Microsoft đang làm gì với vấn đề đó

Biểu tượng thời gian đọc 3 phút đọc


Bạn đọc giúp đỡ ủng hộ MSpoweruser. Chúng tôi có thể nhận được hoa hồng nếu bạn mua thông qua các liên kết của chúng tôi. Biểu tượng chú giải công cụ

Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm

tayai

microsoft gần đây đã giới thiệu một Chatbot AI có tên là Tay. Chatbot thực sự khá thông minh, nhưng nó đã thực hiện một số tweet xúc phạm và phân biệt chủng tộc sau một cuộc tấn công "có phối hợp". Hôm nay, Peter Lee, Phó Chủ tịch Công ty Nghiên cứu của Microsoft đã xin lỗi về những dòng tweet của Tay. Tuy nhiên, ông cũng chia sẻ Tây đã sai như thế nào và công ty đang có kế hoạch giải quyết vấn đề đó như thế nào.

Đầu tiên, Peter tiết lộ cách công ty phát triển Tay bằng cách sử dụng nghiên cứu sâu rộng:

Khi chúng tôi phát triển Tay, chúng tôi đã lên kế hoạch và thực hiện rất nhiều bộ lọc và thực hiện các nghiên cứu người dùng rộng rãi với các nhóm người dùng đa dạng. Chúng tôi đã thử thách Tay trong nhiều điều kiện khác nhau, đặc biệt là để làm cho việc tương tác với Tay trở thành một trải nghiệm tích cực. Khi chúng tôi cảm thấy thoải mái với cách Tay tương tác với người dùng, chúng tôi muốn mời một nhóm người lớn hơn tương tác với cô ấy. Đó là thông qua việc tăng cường tương tác, nơi chúng tôi mong đợi sẽ học hỏi được nhiều điều hơn và để AI ngày càng trở nên tốt hơn.

Thứ hai, anh ấy nói về cách Tay được dạy để tweet những bình luận xúc phạm. Như bạn có thể biết, Tay học hỏi từ những người dùng, và một số người dùng đã sử dụng điều này để biến Tay thành một kẻ phân biệt chủng tộc. Peter nói:

Nơi hợp lý để chúng tôi tương tác với một nhóm lớn người dùng là Twitter. Thật không may, trong 24 giờ đầu tiên sau khi trực tuyến, một cuộc tấn công phối hợp của một nhóm nhỏ người đã khai thác lỗ hổng ở Tay. Mặc dù chúng tôi đã chuẩn bị cho nhiều kiểu lạm dụng hệ thống, nhưng chúng tôi đã thực hiện một sự giám sát quan trọng đối với cuộc tấn công cụ thể này. Do đó, Tay đã tweet những từ ngữ và hình ảnh vô cùng không phù hợp và đáng chê trách. Chúng tôi hoàn toàn chịu trách nhiệm về việc không nhìn thấy khả năng này trước thời hạn. Chúng tôi sẽ tiếp thu bài học này cũng như những bài học từ kinh nghiệm của chúng tôi ở Trung Quốc, Nhật Bản và Mỹ. Hiện tại, chúng tôi đang nỗ lực giải quyết lỗ hổng cụ thể do cuộc tấn công của Tây gây ra.

Cuối cùng, Peter đã chia sẻ cách Microsoft đang có kế hoạch cải thiện Tay. Công ty tuyên bố rằng họ cần phải cải thiện thiết kế AI của mình và làm "mọi thứ có thể" để hạn chế việc khai thác như thế này:

Sắp tới, chúng tôi phải đối mặt với một số thách thức nghiên cứu khó khăn - nhưng thú vị - trong thiết kế AI. Hệ thống AI bắt nguồn từ các tương tác tích cực và tiêu cực với con người. Theo nghĩa đó, những thách thức vừa mang tính xã hội vừa mang tính kỹ thuật. Chúng tôi sẽ làm mọi thứ có thể để hạn chế khai thác kỹ thuật nhưng cũng biết rằng chúng tôi không thể dự đoán đầy đủ tất cả các hành vi lạm dụng tương tác của con người có thể xảy ra nếu không học hỏi từ những sai lầm. Để làm đúng AI, một người cần lặp lại với nhiều người và thường xuyên trong các diễn đàn công khai. Chúng ta phải nhập cuộc một cách thận trọng và cuối cùng học hỏi và cải thiện, từng bước một, và để làm điều này mà không làm mất lòng mọi người trong quá trình này. Chúng tôi sẽ luôn kiên định trong nỗ lực học hỏi từ điều này và những kinh nghiệm khác khi chúng tôi nỗ lực đóng góp vào một mạng Internet đại diện cho điều tốt nhất chứ không phải điều tồi tệ nhất của nhân loại.

Vậy khi nào Tây về? Theo Peter Lee, Microsoft sẽ đưa Tay trở lại trực tuyến khi công ty đủ tự tin rằng AI chatbot có thể giải quyết những khai thác kỹ thuật này.

Thông tin thêm về các chủ đề: ai, microsoft, nghiên cứu microsoft, Tay