Microsoft nimmt Anpassungen an Tay vor, um unangemessene Antworten zu vermeiden
1 Minute. lesen
Veröffentlicht am
Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Mehr Infos
Ein paar Stunden zurück, wir berichtet dass Microsoft seinen neuen Chatbot-Dienst Tay bereits eingestellt hat. Gestern hat Microsoft Tay gestartet, ein maschinelles Lernprojekt, um mehr über menschliche Interaktion zu erfahren. Es wurde online viral und Tausende von Benutzern begannen damit zu interagieren. Nach mehreren Stunden des Starts begann Tay auf unangemessene Weise zu reagieren, einschließlich rassistischer und beleidigender Kommentare, weil sie diese aus ihren Interaktionen mit Internet-Trollen gelernt hatte. Microsoft nimmt jetzt Anpassungen am Dienst vor, um ein solches Verhalten zu vermeiden, und hoffentlich wird er bald wieder online sein.
Lesen Sie unten die Antwort von Microsoft zu diesem Problem.
„Der KI-Chatbot Tay ist ein maschinelles Lernprojekt, das für menschliches Engagement entwickelt wurde. Es ist sowohl ein soziales und kulturelles als auch ein technisches Experiment. Leider wurden wir innerhalb der ersten 24 Stunden, nachdem wir online gegangen waren, auf eine koordinierte Anstrengung einiger Benutzer aufmerksam, Tays Kommentarfähigkeiten zu missbrauchen, damit Tay auf unangemessene Weise reagierte. Infolgedessen haben wir Tay offline genommen und nehmen Anpassungen vor.“
Benutzerforum
19 Nachrichten