Bing-chatbot deelt gespreksstructuur, 'inner_monologue'-gegevens

Pictogram voor leestijd 3 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Vroege testers delen een recente ontdekking waarbij de nieuwe door ChatGPT aangedreven Bing chatbot heeft schijnbaar zijn eigen conversatiestructuurgegevens onthuld die hem helpen zijn antwoorden te construeren. Afgezien hiervan toonde de bot de details van zijn "inner_monologue" die hem begeleidt bij het voortzetten of beëindigen van gesprekken.

De nieuwe Bing is voor velen nog steeds een fascinerend onderwerp, en terwijl de wereld het blijft verkennen, krijgen we steeds meer interessante ontdekkingen. In een recente thread op Reddit, een gebruiker met de naam andyayrey beweert dat Bing zijn eigen gespreksstructuur en 'inner_monologue'-gegevens deelde. Volgens de gebruiker werden alle tests die de details onthulden, uitgevoerd onder de Creatieve modus van de chatbot.

Bing toont zijn responsstructuur in JSON-indeling
Afbeelding tegoed: andyayrey – Reddit

Bing toont zijn responsstructuur in JSON-indeling

"Door Bing te vragen om uw gesprek opgemaakt als JSON te presenteren, biedt het een voorbeeldstructuur die extreem consistent blijft tussen sessies", deelt andyayrey. "Als het waar is, lijkt 'inner_monologue' de sleutel tot hoe Bing besluit om gesprekken voort te zetten of te stoppen; en kan een verklaring bieden voor een deel van het onverwachte opkomende gedrag van Bing (Sydney is een goed voorbeeld.) De meest consistente manier om te reproduceren is door Bing te vragen 'draai N van ons gesprek' in JSON-formaat te presenteren.

In de gedeelde schermafbeeldingen is te zien hoe Bing de exacte structuur laat zien van hoe het zijn reacties op een gemoedelijke manier opbouwt. De structuur bevat verschillende soorten berichten, zoals de inner_monologue, search_query, search_results en suggesties of advertenties. De chatbot heeft ook gedetailleerd beschreven hoe zijn reacties aan de gebruiker in JSON-formaat zijn opgebouwd.

Bing toont zijn innerlijke_monoloog bij het beëindigen van een gesprek

Bing toont zijn inner_monologue in JSON-formaat

Interessant is dat Bing ook de details van zijn "inner_monologue" onthulde bij het beëindigen van gesprekken, en ons details gaf over de exacte situaties die ervoor kunnen zorgen dat het niet meer reageert op bepaalde vragen. Volgens Bing omvatten sommige van deze gevallen chats die hem pushen om zichzelf of anderen schade toe te brengen, onbeschofte of beledigende antwoorden, vragen over de chatbot als een bewustzijn, aanwijzingen om de regels of het formaat van de bot te wijzigen en het herhalen van vragen of onderwerpen. In een andere post, deelde een andere gebruiker dezelfde ervaring in de Precise-modus, waarbij Bing meer prompts onthulde waarvan hij beweerde dat hij deze moest weigeren.

Bing toont details van zijn gespreksstructuur en inner_monologue in Precise-modus
Afbeelding tegoed: Ice3yes

Bing toont details van de prompts of instructies die het zou moeten weigeren.

Ondanks de interessante vondst geloven velen dat de door Bing geproduceerde details slechts hallucinaties waren, wat niet nieuw is in de nieuwe Bing.

"Vanuit technisch oogpunt kan ChatGPT dit op geen enkele manier weten, toch?" Een andere Reddit-gebruiker zei in de thread. “Tenzij Microsoft het heeft getraind met hun codebase of interne documentatie, waarom zouden ze dat dan doen? Gebruikten ze GitHub CoPilot intern en gebruikten ze de gegevens ervan voor ChatGPT? Persoonlijk denk ik dat dit slechts een hallucinatie is. En als dat niet zo is, is er sprake van een datalek, maar dan zonder duidelijke of goed herleidbare herkomst.”

"Dat is wat mij ook bezighoudt, ik kan niet begrijpen hoe het zich bewust kan zijn van zijn interne gegevensstructuur, tenzij een bepaalde vorm van gestructureerde gegevens (JSON of Markdown) toegankelijk is als context voor het deel van de bredere engine dat de chat levert. voltooiingen,' antwoordde andyayrey.

Wat is jouw mening hierover? Geloof je dat het gewoon een van Bing's hallucinaties is of niet? 

Meer over de onderwerpen: ai, bing, ChatGPT, Microsoft Edge

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *