Microsoft gör justeringar av Tay för att undvika olämpliga svar
1 min. läsa
Publicerad den
Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer
För några timmar sedan, vi rapporterade att Microsoft redan har stoppat sin nya chatbottjänst, Tay. I går lanserade Microsoft Tay, ett maskininlärningsprojekt för att veta mer om mänsklig interaktion. Det blev viralt på nätet och tusentals användare började interagera med det. Efter flera timmars lansering började Tay svara på olämpliga sätt inklusive rasistiska och kränkande kommentarer eftersom hon lärde sig dem från sina interaktioner med internettroll. Microsoft gör nu justeringar av tjänsten för att undvika sådant beteende och förhoppningsvis kommer den snart att vara online igen.
Läs Microsofts svar angående det här problemet nedan,
"AI-chatboten Tay är ett maskininlärningsprojekt, designat för mänskligt engagemang. Det är lika mycket ett socialt och kulturellt experiment, som det är tekniskt. Tyvärr, inom de första 24 timmarna efter att vi kom online, blev vi medvetna om en samordnad ansträngning från vissa användare för att missbruka Tays förmåga att kommentera för att få Tay att svara på olämpliga sätt. Som ett resultat har vi tagit Tay offline och gör justeringar.”