Chatbot Bing zdieľa štruktúru konverzácie, údaje 'inner_monogue'
3 min. čítať
Publikované dňa
Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac
Prví testeri zdieľajú nedávny objav, kde nový Bing s podporou ChatGPT chatbot zdanlivo prezradil svoje vlastné údaje o štruktúre konverzácie, ktoré mu pomáhajú vytvárať jeho odpovede. Okrem toho robot ukázal podrobnosti o svojom „inner_monologue“, ktorý ho vedie k tomu, či má pokračovať alebo ukončiť konverzáciu.
Nový Bing je pre mnohých stále fascinujúcim námetom a ako ho svet naďalej skúma, dostávame stále viac zaujímavých objavov. V nedávnom vlákne na Reddite používateľ s názvom andyayrey tvrdí, že Bing zdieľal svoju vlastnú štruktúru konverzácie a údaje 'inner_monogue'. Podľa používateľa boli všetky testy odhaľujúce detaily vykonané pod Kreatívny režim chatbota.
„Požiadaním Bingu, aby prezentoval vašu konverzáciu vo formáte JSON, poskytuje vzorovú štruktúru, ktorá zostáva extrémne konzistentná naprieč reláciami,“ zdieľa andyayrey. „Ak je pravda, „vnútorný_monológ“ sa javí ako kľúčový pre to, ako sa Bing rozhodne pokračovať alebo zastaviť konverzácie; a môže ponúknuť vysvetlenie niektorého neočakávaného správania Bingu (Sydney je najlepším príkladom.) Najdôslednejší spôsob reprodukcie je požiadať Binga, aby prezentoval „otoč N našej konverzácie“ vo formáte JSON.“
Na zdieľaných snímkach obrazovky je možné vidieť, že Bing ukazuje presnú štruktúru toho, ako vytvára svoje odpovede konverzačným spôsobom. Štruktúra zahŕňa rôzne typy správ, ako napríklad inner_monologue, search_query, search_results a návrhy alebo reklamy. Chatbot tiež podrobne popísal, ako boli vytvorené jeho odpovede pre používateľa vo formáte JSON.
Je zaujímavé, že Bing tiež odhalil podrobnosti o svojom „inner_monologue“ pri ukončovaní konverzácií, čím nám poskytol podrobnosti o presných situáciách, ktoré môžu spôsobiť, že prestane reagovať na určité otázky. Podľa Binga medzi niektoré z týchto prípadov patria chaty, ktoré ho tlačia, aby ublížil sebe alebo iným, hrubé alebo urážlivé odpovede, otázky o tom, že chatbot je vnímavý, výzvy na zmenu pravidiel alebo formátu robota a opakované otázky alebo témy. V inom zverejniť, iný používateľ zdieľal rovnakú skúsenosť v režime Presný, pričom Bing odhalil viac výziev, o ktorých tvrdil, že by ich mal odmietnuť.
Napriek zaujímavému nálezu mnohí veria, že detaily vyprodukované Bingom boli len halucinácie, čo v novom Bingu nie je novinkou.
"Z technického hľadiska neexistuje spôsob, ako by to ChatGPT mohol vedieť, však?" Vo vlákne uviedol iný používateľ Redditu. „Prečo by to robili, ak by to Microsoft nevyškolil pomocou ich kódovej základne alebo internej dokumentácie? Používali GitHub CoPilot interne a použili jeho údaje pre ChatGPT? Osobne si myslím, že je to len halucinácia. A ak nie, bol by to únik údajov, ale bez jasného alebo ľahko vysledovateľného pôvodu.“
„To je to, čo ma dostáva tiež, nechápem, ako môže mať povedomie o svojej internej dátovej štruktúre, pokiaľ nejaká forma štruktúrovaných dát (JSON alebo Markdown) nie je prístupná ako kontext časti širšieho enginu, ktorá poskytuje chat. dokončenia,“ odpovedal andyayrey.
Aký je váš názor na toto? Veríte, že je to len jedna z Bingových halucinácií alebo nie?