Bing chatbot deler samtalestruktur, 'indre_monolog'-data
3 min. Læs
Udgivet den
Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere
Tidlige testere deler en nylig opdagelse, hvor ny ChatGPT-drevet Bing chatbot afslørede tilsyneladende sine egne samtalestrukturdata, der hjælper den med at konstruere sine svar. Bortset fra dette viste botten detaljerne i sin "inner_monologue", der guider den om, hvorvidt den skal fortsætte eller afslutte samtaler.
Den nye Bing er stadig et fascinerende emne for mange, og efterhånden som verden fortsætter med at udforske det, får vi flere og flere interessante opdagelser. I en nylig tråd på Reddit hedder en bruger andyayrey hævder, at Bing delte sin egen samtalestruktur og 'indre_monolog'-data. Ifølge brugeren blev alle de test, der afslører detaljerne, udført under Kreativ tilstand af chatbotten.
"Ved at bede Bing om at præsentere din samtale formateret som JSON, giver det en eksempelstruktur, der forbliver ekstremt konsistent på tværs af sessioner," delte andyayrey. "Hvis det er sandt, virker "inner_monologue" nøglen til, hvordan Bing beslutter sig for at fortsætte eller stoppe samtaler; og kan give en forklaring på noget af Bings uventede opståede adfærd (Sydney er et godt eksempel). Den mest konsekvente måde at reproducere er at bede Bing om at præsentere 'turn N of our conversation' i JSON-format."
I de delte skærmbilleder kan Bing ses vise den nøjagtige struktur af, hvordan den opbygger sine svar på en samtale måde. Strukturen omfatter forskellige typer meddelelser såsom den indre_monolog, søgeforespørgsel, søgeresultater og forslag eller annoncer. Chatbotten detaljerede også, hvordan dens svar til brugeren blev konstrueret i JSON-format.
Interessant nok afslørede Bing også detaljerne i sin "inner_monologue" ved at afslutte samtaler, hvilket gav os detaljer om de nøjagtige situationer, der kan få den til at stoppe med at svare på visse forespørgsler. Ifølge Bing omfatter nogle af disse tilfælde chats, der skubber den for at skade sig selv eller andre, uhøflige eller fornærmende svar, spørgsmål om, at chatbotten er en sansning, opfordringer til at ændre bottens regler eller format og gentagelse af spørgsmål eller emner. I en anden indlæg, delte en anden bruger den samme oplevelse under Præcis-tilstand, hvor Bing afslørede flere prompter, som den hævdede, at den skulle afvise.
På trods af det interessante fund, tror mange, at detaljerne produceret af Bing blot var hallucinationer, hvilket ikke er nyt i den nye Bing.
"Fra et teknisk synspunkt er der ingen måde ChatGPT kunne vide dette, vel?" En anden Reddit-bruger sagde i tråden. "Medmindre hvis Microsoft trænede det med deres kodebase eller interne dokumentation, hvorfor skulle de så gøre det? Brugte de GitHub CoPilot internt og brugte dens data til ChatGPT? Personligt tror jeg, at dette kun er en hallucination. Og hvis det ikke er det, ville det være et datalæk, men uden en klar eller let sporbar oprindelse.”
"Det er også det, der får mig, jeg kan ikke forstå, hvordan det kan have kendskab til sin interne datastruktur, medmindre en form for struktureret data (JSON eller Markdown) er tilgængelig som kontekst for den del af den bredere motor, der leverer chatten afslutninger,” svarede andyayrey.
Hvad er din mening om dette? Tror du, at det kun er en af Bings hallucinationer eller ej?