Nowy Bing ujawnia alias „Sydney”, inne oryginalne dyrektywy po szybkim ataku iniekcyjnym

Ikona czasu czytania 2 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Nowy Bing oparty na ChatGPT ujawnił swoje sekrety po przeprowadzeniu szybkiego ataku iniekcyjnego. Oprócz ujawnienia swojego kryptonimu „Sydney”, podzielił się także swoimi oryginalnymi dyrektywami, kierując go, jak zachowywać się podczas interakcji z użytkownikami. (przez Ars Technica)

Szybki atak wstrzyknięcia jest nadal jedną ze słabości sztucznej inteligencji. Można to zrobić, oszukując sztuczną inteligencję złośliwymi i wrogimi danymi wejściowymi użytkownika, zmuszając ją do wykonania zadania, które nie jest częścią jej pierwotnego celu, lub do zrobienia rzeczy, których nie powinna robić. ChatGPT nie jest od tego wyjątkiem, jak ujawnił student Uniwersytetu Stanforda Kevina Liu.

Nowy Bing oparty na ChatGPT ujawnia swój wewnętrzny alias „Sydney” i inne oryginalne dyrektywy po szybkim ataku iniekcyjnym
Źródło obrazu: Kevin Liu

W serii zrzutów ekranu udostępnionych przez Liu, nowy Bing z obsługą ChatGPT udostępnił poufne informacje, które są częścią jego oryginalnych dyrektyw, które są ukryte przed użytkownikami. Liu zdołał uzyskać informacje po użyciu szybkiego ataku iniekcyjnego, który oszukał sztuczną inteligencję. W rozlanych informacjach zawarta jest instrukcja jego wprowadzenia, wewnętrzny alias Sydney, obsługiwane języki oraz instrukcje dotyczące zachowania. Kolejny uczeń o imieniu Marvina von Hagena potwierdził ustalenia Liu udając programistę OpenAI.

Po dniu ujawnienia informacji Liu powiedział, że nie może wyświetlić informacji przy użyciu tego samego monitu, którego użył do oszukania ChatGPT. Jednak uczniowi udało się ponownie oszukać sztuczną inteligencję po zastosowaniu innej metody szybkiego ataku iniekcji.

Microsoft niedawno oficjalnie ujawnił nowość Bing z obsługą ChatGPT wraz z odnowioną przeglądarką Edge z nowym paskiem bocznym opartym na sztucznej inteligencji. Pomimo pozornie ogromnego sukcesu, ulepszona wyszukiwarka nadal ma piętę achillesową w zakresie szybkich ataków polegających na wstrzykiwaniu, co może prowadzić do dalszych implikacji wykraczających poza udostępnianie jej poufnych dyrektyw. ChatGPT nie jest sam w tym znanym problemie wśród AI. Może to dotyczyć także innych osób, m.in Bard Google, który niedawno popełnił swój pierwszy błąd w wersji demonstracyjnej. Niemniej jednak, biorąc pod uwagę, że cała branża technologiczna inwestuje więcej w tworzenie sztucznej inteligencji, można mieć tylko nadzieję, że problem może być mniej groźny dla sztucznej inteligencji w przyszłości.

Więcej na tematy: ai, Artificial Intelligence, bing, ChatGPT, Bard Google, Microsoft Edge, otwórz AI, bezpieczeństwo

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *