Microsoft gör justeringar av Tay för att undvika olämpliga svar

Lästid ikon 1 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

tayai

För några timmar sedan, vi rapporterade att Microsoft redan har stoppat sin nya chatbottjänst, Tay. I går lanserade Microsoft Tay, ett maskininlärningsprojekt för att veta mer om mänsklig interaktion. Det blev viralt på nätet och tusentals användare började interagera med det. Efter flera timmars lansering började Tay svara på olämpliga sätt inklusive rasistiska och kränkande kommentarer eftersom hon lärde sig dem från sina interaktioner med internettroll. Microsoft gör nu justeringar av tjänsten för att undvika sådant beteende och förhoppningsvis kommer den snart att vara online igen.

Läs Microsofts svar angående det här problemet nedan,

"AI-chatboten Tay är ett maskininlärningsprojekt, designat för mänskligt engagemang. Det är lika mycket ett socialt och kulturellt experiment, som det är tekniskt. Tyvärr, inom de första 24 timmarna efter att vi kom online, blev vi medvetna om en samordnad ansträngning från vissa användare för att missbruka Tays förmåga att kommentera för att få Tay att svara på olämpliga sätt. Som ett resultat har vi tagit Tay offline och gör justeringar.”

Mer om ämnena: ai, chatbot, maskininlärning, microsoft, offline, nätet, service, tay

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *