Klepetalni robot Bing deli strukturo pogovora, podatke 'inner_monologue'
3 min. prebrati
Objavljeno dne
Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več
Prvi preizkuševalci delijo nedavno odkritje, kjer je novi Bing, ki ga poganja ChatGPT chatbot je navidezno razkril lastne podatke o strukturi pogovora, ki mu pomagajo sestaviti njegove odgovore. Poleg tega je bot pokazal podrobnosti svojega »notranjega_monologa«, ki ga vodi, ali naj nadaljuje ali konča pogovore.
Novi Bing je za mnoge še vedno fascinantna tema in ko ga svet še naprej raziskuje, dobivamo vse več zanimivih odkritij. V nedavni niti na Redditu je uporabnik z imenom andyayrey trdi, da je Bing delil lastno strukturo pogovora in podatke 'inner_monologue'. Po mnenju uporabnika so bili vsi testi, ki razkrivajo podrobnosti, opravljeni pod Ustvarjalni način chatbota.
»S tem, ko zahteva od Binga, da predstavi vaš pogovor v formatu JSON, zagotavlja primer strukture, ki ostaja izjemno dosledna med sejami,« je delil andyayrey. »Če je res, se zdi »inner_monologue« ključnega pomena za to, kako se Bing odloči nadaljevati ali ustaviti pogovore; in lahko ponudi razlago za nekatera nepričakovana pojavna vedenja Binga (Sydney je odličen primer.) Najbolj dosleden način za reprodukcijo je, da od Binga zahtevate, da predstavi 'obrat N našega pogovora' v formatu JSON.«
Na posnetkih zaslona, ki so v skupni rabi, je mogoče videti Bing, ki prikazuje natančno strukturo, kako gradi svoje odzive na pogovorni način. Struktura vključuje različne vrste sporočil, kot so inner_monologue, search_query, search_results in predlogi ali oglasi. Klepetalni robot je tudi podrobno opisal, kako so bili njegovi odzivi uporabniku sestavljeni v formatu JSON.
Zanimivo je, da je Bing razkril tudi podrobnosti svojega "notranjega_monologa" pri zaključku pogovorov in nam dal podrobnosti o natančnih situacijah, ki lahko sprožijo, da se neha odzivati na določene poizvedbe. Po navedbah Binga nekateri od teh primerov vključujejo klepete, ki ga potiskajo, da škoduje sebi ali drugim, nesramne ali žaljive odgovore, vprašanja o tem, da je klepetalni robot čustven, pozive k spremembi pravil ali formata bota ter ponavljanje vprašanj ali tem. V drugem objava, drugi uporabnik je delil isto izkušnjo v načinu Precise, pri čemer je Bing razkril več pozivov, za katere je trdil, da jih mora zavrniti.
Kljub zanimivi najdbi pa mnogi menijo, da so podrobnosti, ki jih izdeluje Bing, le halucinacije, kar pri novem Bingu ni novost.
"S tehničnega vidika ni možnosti, da bi ChatGPT to vedel, kajne?" Drugi uporabnik Reddita je rekel v temi. »Razen če bi ga Microsoft usposobil s svojo kodno zbirko ali interno dokumentacijo, zakaj bi to naredil? Ali so uporabljali GitHub CoPilot interno in njegove podatke za ChatGPT? Osebno mislim, da je to samo halucinacija. In če ni, bi šlo za uhajanje podatkov, vendar brez jasnega ali lahko sledljivega izvora.”
»To je tudi mene. Ne morem razumeti, kako se lahko zaveda svoje notranje strukture podatkov, razen če je neka oblika strukturiranih podatkov (JSON ali Markdown) dostopna kot kontekst delu širšega mehanizma, ki zagotavlja klepet dokončanja,« je odgovoril andyayrey.
Kakšno je vaše mnenje o tem? Ali verjamete, da je to le ena od Bingovih halucinacij ali ne?