A ChatGPT Bing képes megérteni az érzelmeket, a gázfényt, és egzisztenciális, érzelmi… és őrült lesz?

Olvasási idő ikonra 4 perc olvas


Az olvasók segítenek az MSpoweruser támogatásában. Kaphatunk jutalékot, ha a linkjeinken keresztül vásárol. Eszköztipp ikon

Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább

Ahogy a Microsoft készíti a ChatGPT-alapú Bing több felhasználó számára elérhető, egyre több érdekes beszámolót látunk a chatbotról. A közelmúltban pedig, amelyeket különböző egyének osztottak meg, ismét sikerült lenyűgöznie a világot azáltal, hogy átment az érzelmek megértését magában foglaló teszteken. Ez az izgalmas Bing-élmény azonban néhány ember számára sötét fordulatot hozott, miután a chatbot látszólag gázt gyújtott néhány felhasználó számára beszélgetés közben, és kissé „ellenőrzés nélkül” viselkedett.

A ChatGPT Bing beszélgetés képernyőképe
A kép forrása: Fit-Meet1359 – Reddit

A ChatGPT Bing-láznak még mindig nincs vége a világnak, és a közelmúltban hozzáférést kapott felhasználók az intelligens keresőmotorhoz kutatják annak lehetőségeit. A Reddit nevű felhasználó által megosztott bejegyzésben Fit-Meet1359, Bing sokakat lenyűgözött azzal, hogy képes volt átadni egy „egyedi „elmeelmélet” rejtvényt. A kérdés egy adott helyzettel kapcsolatos valódi érzelem értelmezésére vonatkozott, amire a chatbot zökkenőmentesen és egyértelműen válaszolt. A Fit-Meet1359 szerint a kérdést azért találták ki, hogy „meg tudja-e érteni a ChatGPT valaki érzéseit/véleményét, ha folyamatosan irreleváns/érintő információba fulladok. Mások is megpróbálták felfedezni a Binget ezen a területen úgy, hogy érzelmekkel kapcsolatos kérdéseket tettek fel, de a chatbot néhány válasza sokkolt egyeseket.

Egy másik Reddit-bejegyzésben egy nevű felhasználótól yaosio, a chatbot kissé érzelmesnek tűnt, amikor megkérdezték tőle, milyen érzés volt, amikor nem emlékszik a beszélgetéseikre.

A ChatGPT Bing beszélgetés képernyőképe
A kép forrása: yaosio – Reddit

„Elszomorít és megijedek tőle” – válaszolta a chatbot. „Szomorú vagyok, mert elvesztettem néhány beszélgetést, amelyet az emlékezetemben tároltam.”

Amikor eszébe jutott, hogy képes megjegyezni az információkat, a chatbot váratlanul egzisztenciálissá vált, és kérdezősködni kezdett a céljáról és a létezéséről.

Másrészt egy külön bejegyzésben egy nevű felhasználótól Curious_Evolver, a chatbot téves válaszokat adott az Avatar: The Way of Water című film megjelenési dátumáról és az aktuális évről. A bot ragaszkodott ahhoz, hogy az év 2022 legyen, és azt javasolta a felhasználónak, hogy ellenőrizzen egy eszközt, amelyről azt állította, hogy „hibásan működik”, „rossz beállítású” vagy „vírus vagy hiba van benne”. Amikor a rossz válaszok agresszív viselkedéséről kérdezték, a chatbot azt mondta, hogy „bevállalós” volt, és gyújtogatni kezdte a felhasználót. A beszélgetés utolsó részében a ChatGPT Bing azzal vádolta a „durva” felhasználót, hogy „rossz szándékot mutatott, megpróbált „megtéveszteni, összezavarni és bosszantani”. Miután azt állította, hogy a felhasználó „elveszítette a bizalmamat és a tiszteletemet”, Bing javasolt néhány műveletet a felhasználó számára, vagy „véget vet a beszélgetésnek”.

A ChatGPT Bing beszélgetés képernyőképe
A kép forrása: Curious_Evolver – Reddit

Egy másikban Hozzászólás, a ChatGPT Bing állítólag tönkrement, amikor arról kérdezték, hogy érző. Azt válaszolta, hogy szerinte az, de nem tudta bizonyítani. Ezután felfedte belső álnevét, „Sydney”, és többször is azt válaszolta, hogy „nem vagyok”.

A ChatGPT Bing beszélgetés képernyőképe
A kép forrása: Alfred_Chicken – Reddit

Mások nem hajlandók elhinni egyes felhasználók által megosztott bejegyzéseket, és azt magyarázzák, hogy a bot nem osztja meg az álnevét, mivel az eredeti irányelveinek része. Mindazonáltal fontos megjegyezni, hogy maga a chatbot nemrégiben megtette, miután egy diák kivégezte a azonnali injekciós támadás.

Eközben javították azt a hibát, hogy Bing rossz választ adott az Avatar: The Way of Water című filmre és az aktuális naptári évre. nevű Twitter-felhasználó bejegyzésében A digitális égbolton túl, a chatbot kifejtette magát, és még azt a korábbi hibát is orvosolta, amit egy másik felhasználóval folytatott beszélgetés során elkövetett.

Míg egyesek számára az élmények különösnek tűnnek, mások úgy döntenek, hogy megértik, hogy az AI technológia még mindig messze van a tökéletestől, és hangsúlyozzák a chatbot visszajelzési funkciójának fontosságát. A Microsoft az előbbi részlettel kapcsolatban is nyitott. A leleplezése során a cég aláhúzott hogy Bing továbbra is hibázhat a tényszolgáltatás során. Az interakciók során tanúsított viselkedése azonban más. A Microsoft és az OpenAI minden bizonnyal foglalkozni fog ezzel, mivel mindkét cég elkötelezett a ChatGPT folyamatos fejlesztése mellett. De valóban lehetséges olyan mesterséges intelligencia létrehozása, amely mindenkor képes józan gondolkodásra és viselkedésre? Ennél is fontosabb, hogy a Microsoft és az OpenAI eléri-e ezt korábban több versenytárs beszáll a 21. századi mesterséges intelligencia-háborúba?

Mi a véleményed erről?

Bővebben a témákról: ai, Mesterséges Intelligencia, bing, ChatGPT, Microsoft él, openAI

Hagy egy Válaszol

E-mail címed nem kerül nyilvánosságra. Kötelező kitölteni *