Microsoft foretager justeringer af Tay for at undgå upassende svar
1 min. Læs
Udgivet den
Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere
For nogle timer siden, vi rapporteret at Microsoft allerede har stoppet sin nye chatbot-tjeneste, Tay. I går lancerede Microsoft Tay, et maskinlæringsprojekt for at vide mere om menneskelig interaktion. Det gik viralt online, og tusindvis af brugere begyndte at interagere med det. Efter flere timers lancering begyndte Tay at reagere på upassende måder, herunder racistiske og krænkende kommentarer, fordi hun lærte dem fra sine interaktioner med internettrolde. Microsoft foretager nu justeringer af tjenesten for at undgå sådan adfærd, og forhåbentlig vil den snart være online igen.
Læs Microsofts svar vedrørende dette problem nedenfor,
"AI chatbot Tay er et maskinlæringsprojekt, designet til menneskelig engagement. Det er lige så meget et socialt og kulturelt eksperiment, som det er teknisk. Desværre blev vi inden for de første 24 timer efter at være online blevet opmærksomme på en koordineret indsats fra nogle brugere for at misbruge Tays kommenteringsevner til at få Tay til at reagere på upassende måder. Som et resultat har vi taget Tay offline og foretager justeringer."
Brugerforum
19 meddelelser