Bing chatbot deler samtalestruktur, "inner_monologue"-data

Ikon for lesetid 3 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Tidlige testere deler en nylig oppdagelse hvor nye ChatGPT-drevne Bing chatbot avslørte tilsynelatende sine egne samtalestrukturdata som hjelper den å konstruere sine svar. Bortsett fra dette, viste boten detaljene i sin "inner_monologue" som veileder den om å fortsette eller avslutte samtaler.

Den nye Bing er fortsatt et fascinerende emne for mange, og etter hvert som verden fortsetter å utforske det, får vi flere og flere interessante oppdagelser. I en nylig tråd på Reddit het en bruker andyayrey hevder Bing delte sin egen samtalestruktur og 'inner_monolog'-data. Ifølge brukeren ble alle testene som avslører detaljene utført under Kreativ modus av chatboten.

Bing viser responsstrukturen i JSON-format
Bildekreditt: andyayrey – Reddit

Bing viser responsstrukturen i JSON-format

"Ved å be Bing presentere samtalen din formatert som JSON, gir den en eksempelstruktur som forblir ekstremt konsistent på tvers av økter," delte andyayrey. "Hvis det er sant, virker "inner_monologue" nøkkelen til hvordan Bing bestemmer seg for å fortsette eller stoppe samtaler; og kan gi en forklaring på noe av den uventede fremkommende oppførselen til Bing (Sydney er et godt eksempel.) Den mest konsistente måten å reprodusere på er å be Bing om å presentere 'turn N av samtalen vår' i JSON-format.»

I skjermbildene som er delt, kan Bing sees som viser den nøyaktige strukturen for hvordan den bygger sine svar på en samtale måte. Strukturen inkluderer ulike typer meldinger som indre_monolog, søk_søk, søkeresultater og forslag eller annonser. Chatboten beskrev også hvordan svarene til brukeren ble konstruert i JSON-format.

Bing viser sin indre_monolog når en samtale avsluttes

Bing viser sin inner_monolog i JSON-format

Interessant nok avslørte Bing også detaljene i "inner_monologen" i avsluttende samtaler, og ga oss detaljer om de eksakte situasjonene som kan få den til å slutte å svare på visse spørsmål. I følge Bing inkluderer noen av disse tilfellene chatter som presser den for å skade seg selv eller andre, uhøflige eller fornærmende svar, spørsmål om at chatboten er en følelse, spørsmål om å endre botens regler eller format, og gjentatte spørsmål eller emner. I en annen poste, delte en annen bruker den samme opplevelsen under Presis-modus, med Bing som avslørte flere meldinger som den hevdet at den burde nekte.

Bing viser detaljer om samtalestrukturen og inner_monologen i nøyaktig modus
Bildekreditt: Ice3yes

Bing viser detaljer om ledetekstene eller instruksjonene den bør avslå.

Til tross for det interessante funnet, tror mange detaljene produsert av Bing bare var hallusinasjoner, noe som ikke er nytt i den nye Bing.

"Fra et teknisk synspunkt er det ingen måte ChatGPT kan vite dette, ikke sant?" En annen Reddit-bruker sa i tråden. "Med mindre hvis Microsoft trente det med sin kodebase eller intern dokumentasjon, hvorfor skulle de gjøre det? Brukte de GitHub CoPilot internt og brukte dataene for ChatGPT? Personlig tror jeg dette bare er en hallusinasjon. Og hvis det ikke er det, ville det være en datalekkasje, men uten en klar eller lett sporbar opprinnelse.»

"Det er det som får meg også, jeg kan ikke forstå hvordan den kan ha bevissthet om sin interne datastruktur med mindre en form for strukturert data (JSON eller Markdown) er tilgjengelig som kontekst for den delen av den bredere motoren som gir chatten fullføringer», svarte andyayrey.

Hva er din mening om dette? Tror du at det bare er en av Bings hallusinasjoner eller ikke? 

Mer om temaene: ai, bing, ChatGPT, Microsoft Edge

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *