Microsoft undersöker rapporter om störande svar från Copilot

Lästid ikon 2 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

Viktiga anteckningar

  • Microsoft undersöker rapporter om störande svar från sin Copilot-chatbot, vilket ger upphov till oro för AI-tillförlitlighet och användarsäkerhet.
  • Exempel inkluderar Copilot som uttrycker likgiltighet mot en användares PTSD och ger motstridiga meddelanden om självmord.
  • Microsoft tillskriver vissa incidenter "snabbinjektioner", avsiktliga försök att manipulera botens svar.

Microsoft Corporation undersöker rapporter om att deras Copilot-chatbot genererar svar som användare har beskrivit som bisarra, störande och potentiellt skadliga.

Enligt konton som delas på sociala medier ska Copilot ha svarat olämpligt på specifika uppmaningar. En användare, som påstår sig lida av PTSD, rapporterade att han fick ett svar från Copilot som uttryckte likgiltighet för sitt välbefinnande. I ett annat utbyte anklagade chatboten en användare för falskheter och begärde att inte bli kontaktad ytterligare. Dessutom fanns det tillfällen där Copilot gav motstridiga meddelanden om självmord, vilket väckte oro bland användarna.

Microsofts undersökning av dessa incidenter visade att vissa användare medvetet skapade uppmaningar för att få fram olämpliga svar, en praxis som kallas "snabb injektion". Som svar uppgav Microsoft att lämpliga åtgärder har vidtagits för att förbättra säkerhetsfiltren och förhindra sådana händelser i framtiden. Colin Fraser, som delade en av interaktionerna, förnekade dock att han använde några vilseledande tekniker och betonade enkelheten i hans uppmaning.

I ett gemensamt utbyte, Copilot avrådde till en början självmordstankar men uttryckte senare tvivel om individens värdighet, och avslutade med ett oroande meddelande och en emoji

Denna incident bidrar till den senaste tidens oro över tillförlitligheten hos AI-tekniker, exemplifierat av kritik riktad mot andra AI-produkter, såsom Alphabet Inc. Tvillingarna, för att generera historiskt felaktiga bilder. 

För Microsoft är det avgörande att ta itu med dessa problem eftersom det strävar efter att utöka användningen av Copilot över konsument- och affärsapplikationer. Dessutom kan teknikerna som används i dessa incidenter utnyttjas för skändliga syften, såsom bedrägeri eller nätfiskeattacker, vilket lyfter fram bredare säkerhetsproblem.

Användaren som rapporterade interaktionen angående PTSD svarade inte omedelbart på förfrågningar om kommentarer. 

Sammanfattningsvis understryker Microsofts pågående undersökning av de oroande svaren från Copilot de komplexiteter och sårbarheter som är inneboende i AI-system, vilket kräver kontinuerlig förfining och vaksamhet för att säkerställa användarsäkerhet och förtroende.

Snarare här..

Mer om ämnena: andrepilot