Microsoft nhắm đến việc nói dối AI của họ để giảm sự thành kiến ​​về giới tính

Biểu tượng thời gian đọc 3 phút đọc


Bạn đọc giúp đỡ ủng hộ MSpoweruser. Chúng tôi có thể nhận được hoa hồng nếu bạn mua thông qua các liên kết của chúng tôi. Biểu tượng chú giải công cụ

Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm

Một trong những thế mạnh lớn nhất của nhân loại là khả năng điều hướng thế giới chỉ bằng cách sử dụng dữ liệu hạn chế, phần lớn dựa vào kinh nghiệm của chúng ta được tích lũy qua nhiều năm tiếp xúc cá nhân, giáo dục và truyền thông.

Ví dụ, điều này có nghĩa là chúng ta lái xe chậm hơn quanh trường vì chúng ta nghi ngờ có thể có trẻ em ở xung quanh hoặc nhường chỗ cho người già vì chúng ta nghi ngờ một cách hợp lý rằng họ sẽ yếu hơn người bình thường.

Mặt tối của những giả định này tất nhiên là thành kiến ​​​​phân biệt chủng tộc và phân biệt giới tính, trong đó niềm tin của chúng ta ít được chứng minh, ngoại suy một cách không công bằng từ một số ít đến toàn bộ dân số hoặc không cho phép có ngoại lệ đối với quy tắc.

Nói chuyện với Wired, các nhà nghiên cứu của Microsoft đã tiết lộ rằng AI thậm chí còn dễ mắc phải loại sai lệch này hơn.

Các nhà nghiên cứu từ Đại học Boston và Microsoft đã chỉ ra rằng phần mềm được đào tạo dựa trên văn bản thu thập từ Google Tin tức sẽ hình thành các kết nối như “Đàn ông với lập trình viên máy tính cũng như phụ nữ với nội trợ”.

Một nghiên cứu khác cho thấy khi AI được đào tạo trên hai bộ ảnh lớn, bao gồm hơn 100,000 hình ảnh về các cảnh phức tạp được lấy từ web, được con người gắn nhãn kèm theo mô tả, AI đã phát triển mối liên hệ chặt chẽ giữa phụ nữ và các vật dụng trong nhà với nam giới, công nghệ và ngoài trời. các hoạt động.

Trong tập dữ liệu COCO, các đồ vật trong nhà bếp như thìa và nĩa có liên quan chặt chẽ với phụ nữ, trong khi các thiết bị thể thao ngoài trời như ván trượt tuyết và vợt tennis cũng như các đồ dùng công nghệ như bàn phím và chuột máy tính có liên quan rất chặt chẽ với nam giới.

Trên thực tế, thành kiến ​​của AI thậm chí còn mạnh hơn chính tập dữ liệu, khiến nó có nhiều khả năng xác định một người trong bếp là phụ nữ ngay cả khi đó là đàn ông.

Những thành kiến ​​​​như vậy, nếu được phát hiện, có thể được khắc phục bằng cách đào tạo bổ sung, nhưng có những rủi ro đáng kể là mô hình AI có thể được đưa vào sản xuất mà không giải quyết được tất cả các vấn đề đó.

Eric Horvitz, giám đốc Nghiên cứu của Microsoft, cho biết “Tôi và Microsoft nói chung tôn vinh những nỗ lực xác định và giải quyết các thành kiến ​​cũng như lỗ hổng trong các tập dữ liệu và hệ thống được tạo ra từ chúng. Các nhà nghiên cứu và kỹ sư làm việc với COCO và các bộ dữ liệu khác nên tìm kiếm các dấu hiệu sai lệch trong công việc của chính họ và của những người khác.”

Horvitz đang xem xét một giải pháp thú vị để sử dụng AI ngay từ đầu, đề xuất thay vì hình ảnh được vẽ từ thực tế, AI có thể được đào tạo về những hình ảnh lý tưởng hóa hiển thị các vật phẩm có sự cân bằng giới tính bình đẳng, giống như tài liệu giáo dục dành cho trẻ em sẽ phản ánh thực tế như chúng ta muốn nó như thế hơn là nó là gì.

“Đó là một câu hỏi thực sự quan trọng–khi nào chúng ta nên thay đổi thực tế để làm cho hệ thống của mình hoạt động theo cách mong muốn?” anh ta nói.

Các nhà nghiên cứu khác không chắc chắn lắm.

Aylin Caliskan, một nhà nghiên cứu tại Princeton, cho biết nếu thực sự có nhiều nam công nhân xây dựng hơn thì các chương trình nhận dạng hình ảnh sẽ được phép nhìn thấy điều đó. Các bước có thể được thực hiện sau đó để đo lường và điều chỉnh bất kỳ sai lệch nào nếu cần. Cô nói: “Chúng tôi có nguy cơ mất đi những thông tin cần thiết. “Các bộ dữ liệu cần phản ánh số liệu thống kê thực tế trên thế giới.”

Thông tin thêm về các chủ đề: Trí tuệ nhân tạo, nghiên cứu microsoft

Bình luận

Chúng tôi sẽ không công khai email của bạn. Các ô đánh dấu * là bắt buộc *