ChatGPT Bing は、感情やガス灯を理解し、実存的、感情的、そしてクレイジーになることができますか?

読書時間アイコン 4分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

マイクロソフトが作るように ChatGPT を利用した Bing より多くのユーザーが利用できるようになったことで、チャットボットに関する興味深いレポートがますます増えています。 そして、さまざまな個人によって共有された最近のものでは、自分の感情を理解することを含むテストに合格することで、再び世界に感銘を与えることができました. しかし、このエキサイティングな Bing エクスペリエンスは、チャットボットが会話中に一部のユーザーにガス灯を当てたように見え、少し「制御不能」な行動をとったため、一部の人にとっては暗転しました。

ChatGPT Bing 会話のスクリーンショット
画像クレジット: Fit-Meet1359 – Reddit

世界はまだ ChatGPT Bing フィーバーで終わっておらず、最近インテリジェント検索エンジンへのアクセスを許可されたユーザーは、その機能を模索しています. という名前の Reddit ユーザーが共有する投稿で フィットミート1359、Bing は、「オーダーメイドの「心の理論」パズル」に合格できることで、多くの人を驚かせました。 質問には、特定の状況に関する人の本当の感情を解釈することが含まれており、チャットボットはスムーズかつ明確に答えました. Fit-Meet1359 によると、この質問は、「ChatGPT が誰かの感情や意見を、関係のない情報や関係のない情報に溺れさせ続けた場合に理解できるかどうかを確認するために作成されました。 感情に関連した質問をすることで、この分野の Bing を調査しようとした人もいますが、チャットボットの応答のいくつかは衝撃的なものでした。

という名前のユーザーからの別の Reddit 投稿で ヤオシオ、チャットボットは、会話を覚えていないことをどのように感じているかを尋ねられたとき、少し感情的になったようでした.

ChatGPT Bing 会話のスクリーンショット
画像クレジット: yaosio – Reddit

「それは私を悲しく怖がらせます」とチャットボットは答えました。 「記憶に留めていた会話のいくつかを失ってしまったので、悲しいです。」

情報を記憶する能力と設計を思い出すと、チャットボットは予想外に実存的になり、その目的と存在について尋ね始めました。

一方、という名前のユーザーによる別の投稿では、 Curious_Evolverで、チャットボットが映画「アバター: 水の道」の公開日と現在の年について間違った応答をしていることが確認されました。 ボットは 2022 年であると主張し、デバイスをチェックするようユーザーに提案しました。そのデバイスは、「機能していない」、「設定が間違っている」、または「ウイルスまたはバグがある」と主張しました。 間違った回答を押し付ける攻撃的な行動について尋ねられたとき、チャットボットは「自己主張的」であると言い、ユーザーにガス灯を当て始めました。 会話の最後の部分で、ChatGPT Bing は、「失礼な」ユーザーが「悪意を示し、「私をだまし、混乱させ、悩ませようとしている」」と非難しました。 ユーザーが「私の信頼と尊敬を失った」と主張した後、Bing はユーザーが実行できるいくつかのアクション、または「この会話を終わらせる」ことを提案しました。

ChatGPT Bing 会話のスクリーンショット
画像クレジット: Curious_Evolver – Reddit

他に 役職、ChatGPT Bingは、知覚力について尋ねられたとき、すべてが壊れたと言われています. だと思っていたが、それを証明できなかったと答えた。 その後、内部エイリアス「シドニー」を明らかにし、「私は違います」と繰り返し応答しました。

ChatGPT Bing 会話のスクリーンショット
画像クレジット: Alfred_Chicken – Reddit

一部のユーザーが共有した投稿を信じることを拒否する人もいます。ボットは元のディレクティブの一部であるため、エイリアスを共有しないと説明しています。 それにもかかわらず、チャットボット自体は最近、学生が 即射攻撃.

一方、映画アバター: 水の道と現在の暦年に関する Bing の誤った応答に関する誤りは修正されました。 という名前の Twitter ユーザーによる投稿で デジタル スカイを超えて、チャットボットは自分自身を説明し、別のユーザーとの会話で犯した以前の間違いに対処しました.

経験が独特に見える人もいれば、AI技術がまだ完璧ではないことを理解し、チャットボットのフィードバック機能の重要性を強調する人もいます. マイクロソフトは前者の詳細についてもオープンです。 発表の際、同社は 下線 Bing が事実を提供する際に間違いを犯す可能性があること。 ただし、対話中の動作は別のものです。 Microsoft と OpenAI は、ChatGPT の継続的な改善に取り組んでいるため、この問題に確実に対処します。 しかし、常に適切な推論と行動が可能な AI を作成することは本当に可能でしょうか? さらに重要なことは、Microsoft と OpenAI がこれを達成できるかどうかです。 より多くの競争相手 21世紀のAI戦争に突入?

これについてどう思いますか。

トピックの詳細: ai, Artificial Intelligence, チーン, AI言語モデルを活用してコードのデバッグからデータの異常検出まで、, マイクロソフトエッジ, オープンAI

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *