Microsoftは、不適切な応答を回避するためにTayを調整しています

読書時間アイコン 1分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

タヤイ

数時間前、私たちは 報告 Microsoftはすでに新しいチャットボットサービスであるTayを停止しています。 昨日、マイクロソフトは人間の相互作用についてもっと知るための機械学習プロジェクトであるTayを立ち上げました。 それはオンラインでバイラルになり、何千人ものユーザーがそれと対話し始めました。 ローンチの数時間後、テイはインターネットの荒らしとのやりとりからそれらを学んだので、人種差別的で虐待的なコメントを含む不適切な方法で応答し始めました。 Microsoftは現在、このような動作を回避するためにサービスを調整しており、まもなくオンラインに戻ることを願っています。

以下のこの問題に関するMicrosoftの回答をお読みください。

「AIチャットボットTayは、人間の関与を目的として設計された機械学習プロジェクトです。 それは技術的であると同時に、社会的および文化的実験でもあります。 残念ながら、オンラインになってから最初の24時間以内に、Tayのコメントスキルを悪用してTayに不適切な方法で応答させるために、一部のユーザーが協調して取り組んでいることに気付きました。 その結果、Tayをオフラインにし、調整を行っています。」

トピックの詳細: ai, チャットボット, 機械学習, マイクロソフト, オンライン, オンライン, サービス, テイ

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *