Chatbot Bing udostępnia strukturę konwersacji, dane „inner_monogue”.
3 minuta. czytać
Opublikowany
Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej
Pierwsi testerzy dzielą się niedawnym odkryciem, w którym nowy Bing oparty na ChatGPT chatbot najwyraźniej ujawnił własne dane dotyczące struktury konwersacji, które pomagają mu konstruować odpowiedzi. Poza tym bot pokazał szczegóły swojego „inner_monologu”, który wskazuje mu, czy kontynuować, czy zakończyć rozmowę.
Nowy Bing to wciąż dla wielu fascynujący temat, a w miarę jak świat go eksploruje, dostajemy coraz ciekawsze odkrycia. W niedawnym wątku na Reddit użytkownik o nazwie andyayrey twierdzi, że Bing udostępnił własną strukturę konwersacji i dane „inner_monogue”. Według użytkownika wszystkie testy ujawniające szczegóły zostały przeprowadzone pod kontrolą Tryb kreatywny z chatbota.
„Prosząc Bing o przedstawienie konwersacji w formacie JSON, zapewnia przykładową strukturę, która pozostaje niezwykle spójna w różnych sesjach” — powiedział andyayrey. „Jeśli to prawda, „inner_monogue” wydaje się kluczem do decyzji Bing o kontynuowaniu lub przerwaniu rozmów; i może stanowić wyjaśnienie niektórych nieoczekiwanych pojawiających się zachowań Bing (Sydney jest najlepszym przykładem). Najbardziej spójnym sposobem na odtworzenie jest poproszenie Bing o przedstawienie „zwrotu N naszej rozmowy” w formacie JSON.
Na udostępnionych zrzutach ekranu widać, jak Bing pokazuje dokładną strukturę tego, jak buduje swoje odpowiedzi w sposób konwersacyjny. Struktura zawiera różne rodzaje wiadomości, takie jak inner_monologue, search_query, search_results oraz sugestie lub reklamy. Chatbot szczegółowo opisał również, w jaki sposób jego odpowiedzi dla użytkownika zostały skonstruowane w formacie JSON.
Co ciekawe, Bing ujawnił również szczegóły swojego „inner_monologu” podczas kończenia rozmów, podając nam szczegółowe informacje o dokładnych sytuacjach, które mogą spowodować, że przestanie odpowiadać na określone zapytania. Według Bing, niektóre z tych przypadków obejmują czaty nakłaniające go do wyrządzenia krzywdy sobie lub innym, niegrzeczne lub obraźliwe odpowiedzi, pytania o to, czy chatbot jest świadomy, monity o zmianę reguł lub formatu bota oraz powtarzające się pytania lub tematy. Winnym pisać, inny użytkownik podzielił się tym samym doświadczeniem w trybie precyzyjnym, a Bing ujawnił więcej monitów, które, jak twierdził, powinien odrzucić.
Pomimo interesującego znaleziska wielu uważa, że szczegóły wyprodukowane przez Bing były tylko halucynacjami, co nie jest nowością w nowym Bing.
„Z technicznego punktu widzenia nie ma możliwości, aby ChatGPT o tym wiedział, prawda?” Inny użytkownik Reddit powiedział w wątku. „Chyba że Microsoft wyszkolił go za pomocą swojej bazy kodu lub wewnętrznej dokumentacji, dlaczego mieliby to robić? Czy korzystali z GitHub CoPilot wewnętrznie i używali jego danych do ChatGPT? Osobiście uważam, że to tylko halucynacje. A jeśli tak nie jest, byłby to wyciek danych, ale bez jasnego lub łatwego do zidentyfikowania źródła”.
„To mnie też dobija, nie mogę zrozumieć, jak może mieć świadomość swojej wewnętrznej struktury danych, chyba że jakaś forma danych strukturalnych (JSON lub Markdown) jest dostępna jako kontekst dla części szerszego silnika, która zapewnia czat uzupełnień” – odpowiedział andyayrey.
Jaka jest twoja opinia na ten temat? Czy wierzysz, że to tylko jedna z halucynacji Binga, czy nie?