Microsoft が、LLM が幻覚を起こし、答えをでっち上げる理由を説明

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

ユーザーと Microsoft 幹部の間の最近の Twitter のやりとりにより、Bing のような大規模言語モデル (LLM) の限界と、内部知識だけに頼った場合に情報ギャップが生じる可能性について、新たな注目が集まりました。

この議論は、Bing の外部 Web データにアクセスする検索プラグインが無効になっているときに、Bing 上で不正確な検索結果を報告したユーザーから始まりました。これに応じて、マイクロソフトの広告および Web サービスの CEO、ミハイル パラキン氏は、LLM がそのような状況で「事態をでっち上げる」可能性を認めました。

同氏は、LLM が Web を通じて入手できる膨大な情報を奪われた場合、応答を生成するために内部ナレッジ ベース (トレーニングに使用されるテキストとコードのコレクション) に頼ることがあると説明しました。ただし、この内部生成は常に正確であるとは限らず、事実と一致しているわけではないため、検索プラグインを有効にして取得した検索結果と比較して検索結果に不一致が生じる可能性があります。

私にとって、これは、特に外部データ ソースが利用できない場合、LLM を利用した検索の透明性と正確性に関して重要な疑問を引き起こします。 LLM が外部データにアクセスせずに応答を生成する場合、情報のソースと潜在的な制限をユーザーに明確に示す必要があります。

回答を提供することは重要ですが、LLM は不正確な可能性のある内部生成による知識のギャップを埋めることよりも、信頼できる情報を優先する必要があります。不確実性を示す、さらなる調査を提案する、または単純に答えが得られないと述べるなど、代替アプローチを模索することで、信頼を高め、誤った情報の拡散を防ぐことができる可能性があります。

したがって、なぜそうなるのも不思議ではありません 人々は Bing Chat/Copilot よりも ChatGPT を好みます。

これらの理由から、私は個人的に Bard を使用することを好みます。Google は、情報が他の場所から参照されているかどうかをユーザーに知らせ、ユーザーが情報を信頼しやすくする機能を Bard が提供しているからです。

ユーザーフォーラム

0メッセージ