Microsoft foretager justeringer af Tay for at undgå upassende svar

Ikon for læsetid 1 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

tayai

For nogle timer siden, vi rapporteret at Microsoft allerede har stoppet sin nye chatbot-tjeneste, Tay. I går lancerede Microsoft Tay, et maskinlæringsprojekt for at vide mere om menneskelig interaktion. Det gik viralt online, og tusindvis af brugere begyndte at interagere med det. Efter flere timers lancering begyndte Tay at reagere på upassende måder, herunder racistiske og krænkende kommentarer, fordi hun lærte dem fra sine interaktioner med internettrolde. Microsoft foretager nu justeringer af tjenesten for at undgå sådan adfærd, og forhåbentlig vil den snart være online igen.

Læs Microsofts svar vedrørende dette problem nedenfor,

"AI chatbot Tay er et maskinlæringsprojekt, designet til menneskelig engagement. Det er lige så meget et socialt og kulturelt eksperiment, som det er teknisk. Desværre blev vi inden for de første 24 timer efter at være online blevet opmærksomme på en koordineret indsats fra nogle brugere for at misbruge Tays kommenteringsevner til at få Tay til at reagere på upassende måder. Som et resultat har vi taget Tay offline og foretager justeringer."

Brugerforum

19 meddelelser