Microsoft nimmt Anpassungen an Tay vor, um unangemessene Antworten zu vermeiden

Symbol für die Lesezeit 1 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

tayai

Ein paar Stunden zurück, wir berichtet dass Microsoft seinen neuen Chatbot-Dienst Tay bereits eingestellt hat. Gestern hat Microsoft Tay gestartet, ein maschinelles Lernprojekt, um mehr über menschliche Interaktion zu erfahren. Es wurde online viral und Tausende von Benutzern begannen damit zu interagieren. Nach mehreren Stunden des Starts begann Tay auf unangemessene Weise zu reagieren, einschließlich rassistischer und beleidigender Kommentare, weil sie diese aus ihren Interaktionen mit Internet-Trollen gelernt hatte. Microsoft nimmt jetzt Anpassungen am Dienst vor, um ein solches Verhalten zu vermeiden, und hoffentlich wird er bald wieder online sein.

Lesen Sie unten die Antwort von Microsoft zu diesem Problem.

„Der KI-Chatbot Tay ist ein maschinelles Lernprojekt, das für menschliches Engagement entwickelt wurde. Es ist sowohl ein soziales und kulturelles als auch ein technisches Experiment. Leider wurden wir innerhalb der ersten 24 Stunden, nachdem wir online gegangen waren, auf eine koordinierte Anstrengung einiger Benutzer aufmerksam, Tays Kommentarfähigkeiten zu missbrauchen, damit Tay auf unangemessene Weise reagierte. Infolgedessen haben wir Tay offline genommen und nehmen Anpassungen vor.“

Mehr zu den Themen: ai, Chatbot, Maschinelles Lernen, Microsoft, Offline-Bereich., Online, , tay

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *