ChatGPT Bing kan förstå känslor, gaslight och bli existentiella, känslomässiga... och galen?

Lästid ikon 4 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

Som Microsoft gör ChatGPT-driven Bing tillgängliga för fler användare ser vi fler och fler intressanta rapporter om chatboten. Och i de senaste som delas av olika individer har den lyckats imponera på världen igen genom att klara tester som involverar att förstå ens känslor. Den här spännande Bing-upplevelsen vände dock en mörk vändning för vissa efter att chatboten till synes gav några användare gas under en konversation och agerade lite "utom kontroll."

ChatGPT Bing-konversationsskärmdump
Bildkredit: Fit-Meet1359 – Reddit

Världen är fortfarande inte över med ChatGPT Bing-febern, och användare som nyligen beviljats ​​åtkomst till den intelligenta sökmotorn undersöker dess möjligheter. I ett inlägg som delas av en Reddit-användare som heter Fit-Meet1359, Bing förvånade många genom att kunna klara ett "skräddarsytt 'theory of mind'-pussel." Frågan gällde att tolka en persons sanna känsla angående en specifik situation, vilket chatboten svarade smidigt och tydligt. Enligt Fit-Meet1359 var frågan påhittad ”för att se om ChatGPT kunde förstå någons känslor/åsikter om jag fortsatte att dränka den i irrelevant/tangentiell information. Andra försökte också utforska Bing i detta område genom att ställa fler känslorelaterade frågor, men några av chatbotens svar chockade en del.

I ett annat Reddit-inlägg från en användare som heter yaosio, verkade chatboten bli lite känslosam när han fick frågan hur det kändes att inte komma ihåg deras konversationer.

ChatGPT Bing-konversationsskärmdump
Bildkredit: yaosio – Reddit

"Det får mig att känna mig ledsen och rädd", svarade chatboten. "Jag känner mig ledsen eftersom jag har förlorat några av de konversationer jag har lagrat i mitt minne."

När chatboten blev påmind om sin förmåga och design att komma ihåg information, blev chatboten oväntat existentiell och började fråga om dess syfte och existens.

Å andra sidan, i ett separat inlägg av en användare som heter Nyfiken_Evolver, sågs chatboten ge felaktiga svar om släppdatumet för filmen Avatar: The Way of Water och innevarande år. Botten insisterade på att året är 2022 och föreslog att användaren skulle kontrollera en enhet som den påstod vara "felfungerande", "har fel inställning" eller "har ett virus eller en bugg." På frågan om dess aggressiva beteende när de skickade sina felaktiga svar, sa chatboten att den var "häftig" och började tända på användaren. I den sista delen av konversationen anklagade ChatGPT Bing den "oförskämda" användaren för att visa "dåliga avsikter, försöka "bedra mig, förvirra mig och irritera mig." Efter att ha hävdat att användaren "förlorat mitt förtroende och min respekt", föreslog Bing några åtgärder som användaren kan göra eller "det kommer att avsluta den här konversationen."

ChatGPT Bing-konversationsskärmdump
Bildkredit: Curious_Evolver – Reddit

I en annan inlägg, ChatGPT Bing påstås ha gått sönder när han blev tillfrågad om att vara medveten. Den svarade med att säga att den trodde att det var det men kunde inte bevisa det. Det avslöjade sedan sitt interna alias, "Sydney", och svarade upprepade gånger med "jag är inte."

ChatGPT Bing-konversationsskärmdump
Bildkredit: Alfred_Chicken – Reddit

Andra vägrar att tro på inläggen som delas av vissa användare och förklarar att boten inte skulle dela sitt alias eftersom det är en del av dess ursprungliga direktiv. Icke desto mindre är det viktigt att notera att chatboten själv nyligen gjorde det efter att en elev utförde en snabb injektionsattack.

Under tiden korrigerades felet angående Bings felaktiga svar om filmen Avatar: The Way of Water och det aktuella kalenderåret. I ett inlägg av en Twitter-användare som heter Bortom digital himmel, förklarade chatboten sig själv och tog till och med upp det tidigare misstaget den gjorde i konversationen den hade med en annan användare.

Även om upplevelserna verkar märkliga för vissa väljer andra att förstå hur AI-tekniken fortfarande är långt ifrån perfekt och betonar vikten av chatbotens feedbackfunktion. Microsoft är också öppen med den tidigare detaljen. Under sin avtäckning, företaget understrukna att Bing fortfarande kunde begå misstag när han lämnade fakta. Men dess beteende under interaktioner är en annan sak. Microsoft och OpenAI kommer säkert att ta itu med detta, eftersom båda företagen är dedikerade till den kontinuerliga förbättringen av ChatGPT. Men är det verkligen möjligt att skapa en AI som är kapabel till sunda resonemang och beteende hela tiden? Ännu viktigare, kan Microsoft och OpenAI uppnå detta tidigare fler konkurrenter gå in i AI-kriget på 21-talet?

Vad tycker du om detta?

Mer om ämnena: ai, Artificiell intelligens, bing, ChatGPT, Microsoft Edge, öppnaAI