微軟旨在對他們的人工智能撒謊以減少性別歧視

閱讀時間圖標 3分鐘讀


讀者幫助支持 MSpoweruser。如果您透過我們的連結購買,我們可能會獲得佣金。 工具提示圖標

請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 阅读更多

人文學科最大的優勢之一是能夠僅使用有限的數據來導航世界,這在很大程度上依賴於我們在多年的個人曝光、教育和媒體方面積累的經驗。

例如,這意味著我們在學校附近開得較慢,因為我們懷疑周圍可能有孩子,或者為老人提供座位,因為我們有理由懷疑他們會比普通人弱。

這些假設的陰暗面當然是種族主義和性別歧視偏見,即我們的信念沒有得到充分證實,不公平地從少數人推斷到整個人口,或者不允許規則有例外。

微軟研究人員在接受《連線》雜誌採訪時透露,人工智能更容易產生這種偏見。

波士頓大學和微軟的研究人員表明,對從谷歌新聞收集的文本進行訓練的軟件會形成諸如“男人對計算機程序員就像女人對家庭主婦”這樣的聯繫。

另一項研究發現,當人工智能在兩組大型照片上進行訓練時,其中包含超過 100,000 張來自網絡的複雜場景圖像,並由人類標記並帶有描述,人工智能在女性與家居用品、男性與技術和戶外之間建立了強烈的關聯活動。

在 COCO 數據集中,勺子和叉子等廚房用品與女性密切相關,而滑雪板和網球拍等戶外運動器材以及鍵盤和電腦鼠標等科技用品與男性密切相關。

事實上,人工智能的偏見甚至比數據集本身還要強,這使得它更有可能將廚房裡的人識別為女性,即使是男性。

如果檢測到此類偏差,可以通過額外的培訓來糾正,但存在很大的風險,即 AI 模型可能會在沒有解決所有此類問題的情況下投入生產。

微軟研究院主任 Eric Horvitz 表示:“我和微軟作為一個整體,慶祝識別和解決數據集和系統中的偏見和差距的努力。 使用 COCO 和其他數據集的研究人員和工程師應該在他們自己和其他人的工作中尋找偏見的跡象。”

Horvitz 正在考慮一個有趣的解決方案,從一開始就讓 AI 正確,他建議 AI 可以在理想化的圖像上進行訓練,而不是從現實中提取圖像,這些圖像已經顯示了具有平等性別平衡的物品,就像兒童教育材料會反映現實一樣我們希望它成為而不是它是什麼。

“這是一個非常重要的問題——我們什麼時候應該改變現實以使我們的系統以理想的方式運行?” 他說。

其他研究人員不太確定。

普林斯頓大學的研究員 Aylin Caliskan 說,如果真的有更多的男性建築工人,應該允許圖像識別程序看到這一點。 如果需要,之後可以採取措施來測量和調整任何偏差。 “我們冒著丟失重要信息的風險,”她說。 “數據集需要反映世界上的真實統計數據。”

有關主題的更多資訊: 人工智能, 微軟研究

發表評論

您的電子郵件地址將不會被發表。 必填字段標 *