Microsoft、イライラするCopilot/Bing Chatの欠陥を認め「変更が必要」

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

Microsoft は、AI アシスタント Copilot/Bing Chat の制限に関するユーザーからの苦情を認め、今後のアップデートで改善されることが期待されています。

問題? Copilot が応答を生成しているときにタブを切り替えると、Copilot が突然停止します。これにより、ユーザーは Copilot ページに釘付けになったままにしなければならず、マルチタスクが妨げられ、ワークフローが中断されます。

ユーザーが不満を直接声に出した ミハイル・パラキン、マイクロソフトの広告および Web サービス担当 CEO、 つぶやき: 「回答を生成し続けるために copilot//bing チャット ページに留まらなければならない問題を修正していただけますか?タブを切り替えると、応答の生成が停止し、最初からやり直す必要があります。ご検討をお願いいたします。"

パラキン氏の反応は率直で有望なものでした。「はい、それを変える必要があります。」これは、Microsoft がこの制限を認識しており、解決策に取り組んでいる可能性があることを示唆しています。

技術的な制約、プライバシーへの懸念、リソース管理の制限など、いくつかの要因が現在の動作に寄与している可能性があります。ただし、ユーザーは将来のアップデートで改善される可能性を期待できます。 

私の意見では、理想的な解決策には次のようなものがあります。

  • ユーザーがタブを切り替えた場合でも、継続的に回答を生成できるようにします。
  • タブ切り替え中もコンテキストを保持するメカニズムを実装します。
  • 進行中の生成と完了に視覚的な手がかりを提供します。

このユーザーの懸念に対処することで、Microsoft は Copilot/Bing Chat エクスペリエンス全体を強化し、よりスムーズなワークフローと AI アシスタントとのよりユーザー フレンドリーな対話を可能にすることができます。

トピックの詳細: 副操縦士