微软旨在对他们的人工智能撒谎以减少性别歧视

阅读时间图标 3分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

人文学科最大的优势之一是能够仅使用有限的数据来导航世界,这在很大程度上依赖于我们在多年的个人曝光、教育和媒体方面积累的经验。

例如,这意味着我们在学校附近开得较慢,因为我们怀疑周围可能有孩子,或者为老人提供座位,因为我们有理由怀疑他们会比普通人弱。

这些假设的阴暗面当然是种族主义和性别歧视偏见,即我们的信念没有得到充分证实,不公平地从少数人推断到整个人口,或者不允许规则有例外。

微软研究人员在接受《连线》杂志采访时透露,人工智能更容易产生这种偏见。

波士顿大学和微软的研究人员表明,对从谷歌新闻收集的文本进行训练的软件会形成诸如“男人对计算机程序员就像女人对家庭主妇”这样的联系。

另一项研究发现,当人工智能在两组大型照片上进行训练时,其中包含超过 100,000 张来自网络的复杂场景图像,并由人类标记并带有描述,人工智能在女性与家居用品、男性与技术和户外之间建立了强烈的关联活动。

在 COCO 数据集中,勺子和叉子等厨房用品与女性密切相关,而滑雪板和网球拍等户外运动器材以及键盘和电脑鼠标等科技用品与男性密切相关。

事实上,人工智能的偏见甚至比数据集本身还要强,这使得它更有可能将厨房里的一个人识别为女性,即使是男性。

如果检测到此类偏差,可以通过额外的培训来纠正,但存在重大风险,即 AI 模型可能会在所有此类问题未得到解决的情况下投入生产。

微软研究院主任 Eric Horvitz 表示:“我和微软作为一个整体,庆祝识别和解决数据集和系统中的偏见和差距的努力。 使用 COCO 和其他数据集的研究人员和工程师应该在他们自己和其他人的工作中寻找偏见的迹象。”

Horvitz 正在考虑一个有趣的解决方案,从一开始就让 AI 正确,他建议 AI 可以在理想化的图像上进行训练,而不是从现实中提取图像,这些图像已经显示了具有平等性别平衡的物品,就像儿童教育材料会反映现实一样我们希望它成为而不是它是什么。

“这是一个非常重要的问题——我们什么时候应该改变现实以使我们的系统以理想的方式运行?” 他说。

其他研究人员不太确定。

普林斯顿大学的研究员艾琳·卡利斯坎说,如果真的有更多的男性建筑工人,应该允许图像识别程序看到这一点。 如果需要,之后可以采取措施来测量和调整任何偏差。 “我们冒着丢失重要信息的风险,”她说。 “数据集需要反映世界上的真实统计数据。”

有关主题的更多信息: 人工智能, 微软研究

发表评论

您的电邮地址不会被公开。 必填带 *