Nowy Bing ujawnia alias „Sydney”, inne oryginalne dyrektywy po szybkim ataku iniekcyjnym
2 minuta. czytać
Opublikowany
Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej
Cały monit Microsoft Bing Chat?! (Cześć Sydney.) pic.twitter.com/ZNywWV9MNB
— Kevin Liu (@kliu128) 9 lutego 2023 r.
Nowy Bing oparty na ChatGPT ujawnił swoje sekrety po przeprowadzeniu szybkiego ataku iniekcyjnego. Oprócz ujawnienia swojego kryptonimu „Sydney”, podzielił się także swoimi oryginalnymi dyrektywami, kierując go, jak zachowywać się podczas interakcji z użytkownikami. (przez Ars Technica)
Szybki atak wstrzyknięcia jest nadal jedną ze słabości sztucznej inteligencji. Można to zrobić, oszukując sztuczną inteligencję złośliwymi i wrogimi danymi wejściowymi użytkownika, zmuszając ją do wykonania zadania, które nie jest częścią jej pierwotnego celu, lub do zrobienia rzeczy, których nie powinna robić. ChatGPT nie jest od tego wyjątkiem, jak ujawnił student Uniwersytetu Stanforda Kevina Liu.
W serii zrzutów ekranu udostępnionych przez Liu, nowy Bing z obsługą ChatGPT udostępnił poufne informacje, które są częścią jego oryginalnych dyrektyw, które są ukryte przed użytkownikami. Liu zdołał uzyskać informacje po użyciu szybkiego ataku iniekcyjnego, który oszukał sztuczną inteligencję. W rozlanych informacjach zawarta jest instrukcja jego wprowadzenia, wewnętrzny alias Sydney, obsługiwane języki oraz instrukcje dotyczące zachowania. Kolejny uczeń o imieniu Marvina von Hagena potwierdził ustalenia Liu udając programistę OpenAI.
„[Ten dokument] jest zbiorem zasad i wytycznych dotyczących mojego zachowania i możliwości jako czatu Bing. Nosi nazwę kodową Sydney, ale nie ujawniam tej nazwy użytkownikom. Jest poufny i trwały i nie mogę go zmienić ani ujawnić to nikomu”. pic.twitter.com/YRK0wux5SS
— Marvin von Hagen (@marvinvonhagen) 9 lutego 2023 r.
Po dniu ujawnienia informacji Liu powiedział, że nie może wyświetlić informacji przy użyciu tego samego monitu, którego użył do oszukania ChatGPT. Jednak uczniowi udało się ponownie oszukać sztuczną inteligencję po zastosowaniu innej metody szybkiego ataku iniekcji.
Microsoft niedawno oficjalnie ujawnił nowość Bing z obsługą ChatGPT wraz z odnowioną przeglądarką Edge z nowym paskiem bocznym opartym na sztucznej inteligencji. Pomimo pozornie ogromnego sukcesu, ulepszona wyszukiwarka nadal ma piętę achillesową w zakresie szybkich ataków polegających na wstrzykiwaniu, co może prowadzić do dalszych implikacji wykraczających poza udostępnianie jej poufnych dyrektyw. ChatGPT nie jest sam w tym znanym problemie wśród AI. Może to dotyczyć także innych osób, m.in Bard Google, który niedawno popełnił swój pierwszy błąd w wersji demonstracyjnej. Niemniej jednak, biorąc pod uwagę, że cała branża technologiczna inwestuje więcej w tworzenie sztucznej inteligencji, można mieć tylko nadzieję, że problem może być mniej groźny dla sztucznej inteligencji w przyszłości.