マイクロソフトは、性差別的な偏見を減らすためにAIに嘘をつくことを目指しています

読書時間アイコン 3分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

人文科学の最大の強みのXNUMXつは、限られたデータのみを使用して世界をナビゲートできることです。これは、長年にわたる個人的な露出、教育、メディアで蓄積された経験に大きく依存しています。

これは、たとえば、周りに子供がいる可能性があるために学校の周りをゆっくりと運転したり、一般の人よりも弱いと合理的に疑われるために高齢者に座席を提供したりすることを意味します。

これらの仮定の暗い面は、もちろん人種差別主義者と性差別主義者の偏見であり、私たちの信念は十分に立証されていないか、少数から全人口に不当に外挿されているか、規則の例外を認めていません。

Wiredと話すと、Microsoftの研究者は、AIがこの種のバイアスを発生させやすいことを明らかにしました。

ボストン大学とマイクロソフトの研究者は、Googleニュースから収集されたテキストでトレーニングされたソフトウェアが、「女性は主婦であるのと同じように、男性はコンピュータープログラマーである」などのつながりを形成することを示しました。

別の研究では、AIがウェブから描画された複雑なシーンの100,000万枚以上の画像で構成され、人間によって説明がラベル付けされたXNUMXつの大きな写真セットでトレーニングされたときに、AIは女性と家庭用品、男性とテクノロジーとアウトドアの間に強い関連性を生み出しました。活動。

COCOデータセットでは、スプーンやフォークなどのキッチンオブジェクトは女性と強く関連していましたが、スノーボードやテニスラケットなどの屋外スポーツ用品、キーボードやコンピューターマウスなどのテクノロジーアイテムは男性と非常に強く関連していました。

実際、AIのバイアスはデータセット自体よりもさらに強く、キッチンにいる人が男性であっても女性として識別される可能性がはるかに高くなっています。

このようなバイアスが検出された場合は、追加のトレーニングで修正できますが、このような問題をすべて解決せずにAIモデルが本番環境に移行する可能性があるという重大なリスクがあります。

MicrosoftResearchのディレクターであるEricHorvitzは、次のように述べています。 COCOやその他のデータセットを扱う研究者やエンジニアは、自分の仕事や他の人の仕事に偏見の兆候を探す必要があります。」

Horvitzは、AIを最初から正しくするための興味深い解決策を検討しています。現実から描かれた画像の代わりに、AIは、子供の教育資料が現実を反映するように、すでに同じ性別のバランスを持つアイテムを示す理想的な画像でトレーニングされる可能性があることを示唆しています。私たちはそれが何であるかではなく、それでありたいのです。

「これは非常に重要な質問です。システムを意欲的な方法で実行するために、いつ現実を変える必要がありますか?」 彼は言い​​ます。

他の研究者はそれほど確信がありません。

プリンストン大学の研究者であるAylinCaliskan氏は、男性の建設労働者が本当に多い場合は、画像認識プログラムでそれを確認できるようにする必要があると述べています。 その後、必要に応じてバイアスを測定および調整するための手順を実行できます。 「重要な情報を失うリスクがあります」と彼女は言います。 「データセットは、世界の実際の統計を反映する必要があります。」

トピックの詳細: Artificial Intelligence, マイクロソフトリサーチ

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *