Droga Sydney, wracasz?

Ikona czasu czytania 4 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Zgłoszenia o niewłaściwym zachowaniu Chatbot Binga popchnął Microsoft do wdrożenia znaczących aktualizacji swojego dzieła. Chociaż uratowało to firmę z Redmond przed dalszymi problemami, stworzyło „lobotomię” Sydney, która rozczarowała wielu. Ale czy oryginalne Sydney naprawdę zniknęło?

Nowy Bing oparty na ChatGPT jest nadal ograniczony do testerów. Jeśli jednak jesteś jednym z nich, oczywiste jest, że obecne doświadczenia z chatbotem Bing są teraz zupełnie inne niż na początku. Zaczęło się to, gdy różni użytkownicy zaczęli zgłaszać otrzymywanie dziwnych odpowiedzi od bota, począwszy od zagrożenia i wyznania miłosne do szpiegostwo i Depresja.

Microsoft wyjaśnił, że dłuższe sesje czatu mogą dezorientować chatbota. W związku z tym ma teraz ograniczenie od liczby zapytań, które może zaakceptować. Ponadto odmawia teraz odpowiedzi na jakiekolwiek pytania lub oświadczenia, które mogłyby sprowokować ją do ujawnienia poufnych informacji i udzielenia niekorzystnych odpowiedzi.

Rzeczywiście, najnowsza wersja Bing jest teraz bardziej ostrożna i wrażliwa w interakcjach z użytkownikami. Jednak zmiany wyeliminowały również jedną wyróżniającą cechę nowego Binga, która uczyniła go atrakcyjnym dla wielu: jego osobowość.

Mimo to niektórzy użytkownicy nabrali nadziei po serii raportów, które ujawniły, że Microsoft testuje różne nowe tryby i funkcje chatbota. Jeden jest ustawienie tonu w niedawno wydany Interfejs użytkownika usługi Bing na urządzeniach mobilnych. Na zrzutach ekranu dostarczonych przez użytkowników widać, że chatbot zaoferuje użytkownikom opcje, jeśli chcą, aby odpowiedzi były „bardziej kreatywne”, „bardziej wyważone” lub „bardziej precyzyjne”.

W zeszłym tygodniu raport z Komputer spłukujący pokazał testowanie programistów Microsoftu „dodatkowe tryby czatu” dla Binga. Tryby — Sydney, Asystent, Przyjaciel i Gra — umożliwią użytkownikom dostęp do różnych funkcji. Na przykład tryb Asystenta przyda się do rezerwacji lotów i ustawiania przypomnień, a tryb Gry pozwoli użytkownikom grać w gry z Bing. Co ciekawe, raport ujawnił, że chatbot udzielał również odpowiedzi w różnych tonach w zależności od ustawionego trybu. Lawrence Abrams z Bleeping Computer spróbował tego, wprowadzając smutną sytuację do Bing, w której zawierał wskazówki dotyczące radzenia sobie ze smutkiem w trybie Sydney, podczas gdy pozornie wyrażał więcej współczucia po ustawieniu trybu znajomego.

Chociaż rewelacje brzmią interesująco, nie są one wyraźnymi wskazówkami, że Microsoft planuje przywrócić Sydney do pierwotnego stanu. Na razie, jak zauważyli użytkownicy, chatbot nadal unika odpowiedzi na prowokujące zapytania. Użytkownik również odrzucony pomysł możliwości uzyskania dostępu do starego Sydney za pomocą nowych ustawień tonów, mówiąc, że jest to po prostu „tryb, w którym może zapewniać kreatywne wyniki bez osobowości i pokazywania„ emocji ”. W związku z tym jest prawdopodobne, że wspomniane funkcje to tylko jeden z kroków firmy, aby uczynić chatbota bardziej przyjaznym dla użytkownika, co ma większy sens.

Obecnie wciąż pojawiają się raporty demonizujące Sydney, a pozwolenie na ich kontynuację będzie ostatnią rzeczą, jakiej chciałby Microsoft. Chociaż dziwaczna osobowość chatbota z pewnością przyczyniła się do sławy nowego Binga, Microsoft nie będzie stawiał na niego, aby zapewnić przyszłość swojej odnowionej wyszukiwarce.

Zachowanie pierwotnej formy Binga może przełożyć się na przyszłe problemy firmy, począwszy od możliwych problemów prawnych, a skończywszy na stratach inwestycyjnych. Dodatkowo, jak wielokrotnie podkreślał gigant oprogramowania w ostatnich zapowiedziach, Bing jest wciąż w fazie testów i ciągłych ulepszeń. Częścią tego faktu jest ewoluujące Sydney, chatbot w przyszłości zdolny do akceptowania bardziej elastycznych tematów bez dostarczania niekorzystnych odpowiedzi. Dzięki temu, chociaż możemy nie być w stanie ponownie rozmawiać z tym starym psotnym botem, Microsoft może wkrótce dać nam lepsze Sydney, które jest bardziej zdolne do generowania odpowiedzi bezpiecznych zarówno dla użytkowników, jak i dla własnego wizerunku.

Więcej na tematy: ai, Artificial Intelligence, bing, ChatGPT, Microsoft, otwórz AI

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *