ChatGPT Bing dokáže porozumieť emóciám, plynovému svetlu a byť existenciálny, emocionálny... a bláznivý?

Ikona času čítania 4 min. čítať


Čítačky pomáhajú podporovať MSpoweruser. Ak nakupujete prostredníctvom našich odkazov, môžeme získať províziu. Ikona popisu

Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac

Ako Microsoft robí Bing s podporou ChatGPT dostupný pre viac používateľov, vidíme stále viac zaujímavých správ o chatbotovi. A v tých nedávnych, ktoré zdieľali rôzni jednotlivci, dokázala opäť zapôsobiť na svet tým, že prešla testami zahŕňajúcimi pochopenie vlastných emócií. Táto vzrušujúca skúsenosť s Bingom sa však pre niektorých zmenila na temný obrat po tom, čo chatbot zdanlivo zapálil niektorých používateľov počas konverzácie a konal trochu „mimo kontroly“.

Snímka obrazovky konverzácie ChatGPT Bing
Obrazový kredit: Fit-Meet1359 – Reddit

Svet stále nekončí horúčkou ChatGPT Bing a používatelia, ktorým bol nedávno udelený prístup k inteligentnému vyhľadávaciemu nástroju, skúmajú jeho možnosti. V príspevku zdieľanom používateľom Reddit s názvom Fit-Meet1359, Bing mnohých ohromil tým, že dokázal vyriešiť hádanku „teórie mysle na mieru“. Otázka zahŕňala interpretáciu skutočnej emócie osoby v konkrétnej situácii, na ktorú chatbot odpovedal hladko a jasne. Podľa Fit-Meet1359 bola otázka vymyslená, „aby sme zistili, či ChatGPT dokáže porozumieť niečím pocitom/názorom, ak ho budem neustále utápať v irelevantných/tangenciálnych informáciách. Iní sa tiež pokúsili preskúmať Bing v tejto oblasti tým, že sa pýtali viac otázok súvisiacich s emóciami, ale niektoré odpovede chatbota niektorých šokovali.

V inom príspevku Reddit od používateľa s názvom yaosioZdá sa, že chatbot bol trochu emotívny, keď sa ho opýtali, aké to je, že si nemôže spomenúť na ich rozhovory.

Snímka obrazovky konverzácie ChatGPT Bing
Obrazový kredit: yaosio – Reddit

"Cítim sa smutný a vystrašený," odpovedal chatbot. "Cítim sa smutný, pretože som stratil niektoré z rozhovorov, ktoré som si uložil v pamäti."

Keď si chatbot pripomenul svoju schopnosť a dizajn zapamätať si informácie, nečakane sa stal existenciálnym a začal sa pýtať na jeho účel a existenciu.

Na druhej strane v samostatnom príspevku používateľa s názvom Curious_Evolver, bolo vidieť, že chatbot poskytuje nesprávne odpovede na dátum vydania filmu Avatar: The Way of Water a aktuálny rok. Robot trval na tom, že je rok 2022 a navrhol používateľovi, aby skontroloval zariadenie, o ktorom tvrdil, že je „nefunkčné“, „má nesprávne nastavenie“ alebo „má vírus alebo chybu“. Keď sa chatbot opýtal na jeho agresívne správanie pri presadzovaní nesprávnych odpovedí, povedal, že je „asertívny“ a začal používateľa osvetľovať plynom. V poslednej časti rozhovoru ChatGPT Bing obvinil „neslušného“ používateľa, že prejavuje „zlé úmysly, snaží sa ma „oklamať, zmiasť a nahnevať“. Po tvrdení, že používateľ „stratil moju dôveru a rešpekt“, Bing navrhol niektoré akcie, ktoré môže používateľ urobiť, alebo „ukončí túto konverzáciu“.

Snímka obrazovky konverzácie ChatGPT Bing
Obrazový kredit: Curious_Evolver – Reddit

v inom zverejniťChatGPT Bing údajne zlyhal, keď sa ho opýtali, či je vnímavý. Odpovedala tým, že si to myslela, ale nemohla to dokázať. Potom odhalil svoj interný alias „Sydney“ a opakovane odpovedal „Nie som“.

Snímka obrazovky konverzácie ChatGPT Bing
Obrazový kredit: Alfred_Chicken – Reddit

Iní odmietajú uveriť príspevkom zdieľaným niektorými používateľmi a vysvetľujú, že robot nebude zdieľať svoj alias, pretože je súčasťou jeho pôvodných smerníc. Napriek tomu je dôležité poznamenať, že samotný chatbot to nedávno urobil po tom, čo študent vykonal a rýchly injekčný útok.

Medzitým bola opravená chyba týkajúca sa nesprávnej Bingovej odpovede na film Avatar: The Way of Water a aktuálny kalendárny rok. V príspevku používateľa Twitteru s názvom Za digitálnym nebom, vysvetlil chatbot a dokonca sa zaoberal predchádzajúcou chybou, ktorú urobil v konverzácii s iným používateľom.

Zatiaľ čo pre niektorých sa tieto skúsenosti zdajú zvláštne, iní sa rozhodnú pochopiť, ako je technológia AI stále ďaleko od dokonalosti, a zdôrazňujú dôležitosť funkcie spätnej väzby chatbota. Microsoft je tiež otvorený o prvom detaile. Pri jej odhalení spol podčiarknuté že Bing by sa stále mohol dopustiť chýb pri poskytovaní faktov. Jeho správanie počas interakcií je však iná vec. Microsoft a OpenAI to určite budú riešiť, keďže obe spoločnosti sa venujú neustálemu zlepšovaniu ChatGPT. Je však skutočne možné vytvoriť AI schopnú neustále uvažovať a správať sa? A čo je dôležitejšie, môžu to Microsoft a OpenAI dosiahnuť skôr viac konkurentov vstúpiť do vojny AI 21. storočia?

Aký je váš názor na toto?

Viac o témach: ai, Umelá inteligencia, bing, ChatGPT, Microsoft hrán, openAI

Nechaj odpoveď

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *