Microsoft innrømmer frustrerende Copilot/Bing Chat-feil: «Må endres»

Ikon for lesetid 2 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Microsoft har erkjent en brukerklage angående en begrensning i AI-assistenten Copilot/Bing Chat, noe som vekker håp om forbedring i fremtidige oppdateringer.

Problemet? Hvis du bytter fane mens Copilot genererer et svar, stopper det brått. Dette tvinger brukere til å holde seg klistret til Copilot-siden, og hindrer multitasking og forstyrrer arbeidsflyten.

Brukeren ga uttrykk for sin frustrasjon direkte til Mikhail Parakhin, administrerende direktør for annonsering og netttjenester hos Microsoft, tweeting: "Kan du være så snill å fikse problemet der jeg må bli på copilot//bing chat-siden for å fortsette å generere et svar? Hvis jeg bytter fane, slutter den å generere svar, og jeg må starte på nytt. Takk for din omtanke."

Parakhins svar var direkte og lovende: "Ja, vi må endre det." Dette antyder at Microsoft er klar over begrensningen og potensielt jobber med en løsning.

Flere faktorer kan bidra til den nåværende atferden, inkludert tekniske begrensninger, personvernhensyn eller begrensninger for ressursadministrasjon. Imidlertid kan brukere forvente potensielle forbedringer i fremtidige oppdateringer. 

Ideelle løsninger kan etter min mening innebære:

  • Tillat fortsatt svargenerering selv når brukeren bytter fane.
  • Implementer mekanismer for å beholde konteksten selv under fanebytte.
  • Gi visuelle signaler for pågående generering og fullføring.

Ved å adressere denne brukerproblematikken kan Microsoft forbedre den generelle Copilot/Bing Chat-opplevelsen, muliggjøre jevnere arbeidsflyter og mer brukervennlig interaksjon med AI-assistenten.

Mer om temaene: kopilot