Microsoft wprowadza poprawki w Tay, aby uniknąć nieodpowiednich odpowiedzi
1 minuta. czytać
Opublikowany
Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej
Kilka godzin wstecz, my zgłaszane że Microsoft już zatrzymał swoją nową usługę chatbota, Tay. Wczoraj Microsoft uruchomił Tay, projekt uczenia maszynowego, aby dowiedzieć się więcej o interakcji międzyludzkiej. Stał się wirusowy w Internecie i tysiące użytkowników zaczęło z nim wchodzić w interakcje. Po kilku godzinach od uruchomienia Tay zaczęła odpowiadać w nieodpowiedni sposób, w tym rasistowskie i obraźliwe komentarze, ponieważ nauczyła się ich podczas interakcji z trollami internetowymi. Microsoft wprowadza obecnie poprawki w usłudze, aby uniknąć takiego zachowania i miejmy nadzieję, że wkrótce wróci do trybu online.
Przeczytaj odpowiedź firmy Microsoft dotyczącą tego problemu poniżej,
„Chatbot AI Tay to projekt uczenia maszynowego, zaprojektowany z myślą o ludzkim zaangażowaniu. Jest to tyleż społeczny i kulturowy eksperyment, co techniczny. Niestety, w ciągu pierwszych 24 godzin od pojawienia się online, zdaliśmy sobie sprawę z skoordynowanych wysiłków podejmowanych przez niektórych użytkowników w celu nadużycia umiejętności Taya w zakresie komentowania, aby Tay reagował w nieodpowiedni sposób. W rezultacie wyłączyliśmy Tay i wprowadzamy poprawki”.
Forum użytkowników
Wiadomości 19