Tay がどのように間違ったのか、そして Microsoft はそれに対して何をしているのかをご紹介します

読書時間アイコン 3分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

タヤイ

Microsoft 最近紹介された Tayと呼ばれるAIチャットボット。 チャットボットは実際には非常にインテリジェントでしたが、 「協調的」攻撃の後、攻撃的で人種差別的なツイートをいくつか行いました。 本日、MicrosoftResearchのコーポレートバイスプレジデントであるPeterLeeは、Tayのツイートについて謝罪しました。 しかし、彼はまた、テイがどのように失敗したか、そして会社がそれについて何をするつもりであるかを共有しました。

まず、Peterは、広範な調査を使用して、会社がTayをどのように開発したかを明らかにしました。

Tayを開発するにつれ、多くのフィルタリングを計画および実装し、さまざまなユーザーグループを対象に広範なユーザー調査を実施しました。 さまざまな条件下でTayのストレステストを行いました。具体的には、Tayとのやり取りを前向きな体験にするためです。 Tayがユーザーとどのようにやり取りしているかに慣れたら、より多くの人々にTayとの交流を呼びかけたいと思いました。 それは、私たちがより多くを学び、AIがどんどん良くなることを期待した相互作用の増加を通してです。

第二に、彼はテイが不快なコメントをツイートするように教えられた方法について話しました。 ご存知かもしれませんが、Tayはユーザーから学び、一部のユーザーはこれを使用してTayを人種差別主義者に変えました。 ピーターは次のように述べています。

私たちが大規模なユーザーグループと交流するための論理的な場所はTwitterでした。 残念ながら、オンラインになってから最初の24時間で、一部の人々による協調攻撃がTayの脆弱性を悪用しました。 システムのさまざまな種類の悪用に備えていましたが、この特定の攻撃に対して重大な監視を行っていました。 その結果、Tayは非常に不適切で非難されやすい言葉や画像をツイートしました。 私たちは、この可能性を前もって見ないようにする全責任を負います。 このレッスンは、中国、日本、米国での経験と同様に進めていきます。現在、Tayへの攻撃によってさらされた特定の脆弱性に対処するために懸命に取り組んでいます。

最後に、Peterは、MicrosoftがTayの改善をどのように計画しているかを共有しました。 同社は、AI設計を改善し、次のようなエクスプロイトを制限するために「可能な限りのこと」を行う必要があると述べました。

今後、AI設計におけるいくつかの困難でありながら刺激的な研究課題に直面します。 AIシステムは、人々とのポジティブな相互作用とネガティブな相互作用の両方を利用しています。 その意味で、課題は技術的であると同時に社会的でもあります。 私たちは、技術的な悪用を制限するために可能な限りのことを行いますが、間違いから学ぶことなく、人間のインタラクティブな誤用の可能性を完全に予測することはできないことも知っています。 AIを正しく行うには、多くの人と、そして多くの場合、公開フォーラムで繰り返す必要があります。 私たちは細心の注意を払ってそれぞれに参加し、最終的には段階的に学び、改善し、その過程で人々を怒らせることなくこれを行う必要があります。 私たちは、人類の最悪ではなく最高を代表するインターネットへの貢献に向けて努力しながら、この経験や他の経験から学ぶ努力を続けていきます。

では、テイはいつ戻ってくるのですか? Peter Leeによると、Microsoftは、AIチャットボットがこれらの技術的エクスプロイトを回避できると会社が十分に確信しているときに、Tayをオンラインに戻す予定です。

トピックの詳細: ai, マイクロソフト, マイクロソフトリサーチ, テイ