Microsoft wprowadza poprawki w Tay, aby uniknąć nieodpowiednich odpowiedzi

Ikona czasu czytania 1 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

tajai

Kilka godzin wstecz, my zgłaszane że Microsoft już zatrzymał swoją nową usługę chatbota, Tay. Wczoraj Microsoft uruchomił Tay, projekt uczenia maszynowego, aby dowiedzieć się więcej o interakcji międzyludzkiej. Stał się wirusowy w Internecie i tysiące użytkowników zaczęło z nim wchodzić w interakcje. Po kilku godzinach od uruchomienia Tay zaczęła odpowiadać w nieodpowiedni sposób, w tym rasistowskie i obraźliwe komentarze, ponieważ nauczyła się ich podczas interakcji z trollami internetowymi. Microsoft wprowadza obecnie poprawki w usłudze, aby uniknąć takiego zachowania i miejmy nadzieję, że wkrótce wróci do trybu online.

Przeczytaj odpowiedź firmy Microsoft dotyczącą tego problemu poniżej,

„Chatbot AI Tay to projekt uczenia maszynowego, zaprojektowany z myślą o ludzkim zaangażowaniu. Jest to tyleż społeczny i kulturowy eksperyment, co techniczny. Niestety, w ciągu pierwszych 24 godzin od pojawienia się online, zdaliśmy sobie sprawę z skoordynowanych wysiłków podejmowanych przez niektórych użytkowników w celu nadużycia umiejętności Taya w zakresie komentowania, aby Tay reagował w nieodpowiedni sposób. W rezultacie wyłączyliśmy Tay i wprowadzamy poprawki”.

Forum użytkowników

Wiadomości 19