Microsoft gjør justeringer av Tay for å unngå upassende svar
1 min. lese
Publisert på
Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer
For noen timer tilbake, vi rapportert at Microsoft allerede har stoppet sin nye chatbot-tjeneste, Tay. I går lanserte Microsoft Tay, et maskinlæringsprosjekt for å vite mer om menneskelig interaksjon. Det gikk viralt på nettet og tusenvis av brukere begynte å samhandle med det. Etter flere timer med lansering begynte Tay å svare på upassende måter, inkludert rasistiske og fornærmende kommentarer fordi hun lærte dem fra interaksjoner med internett-troll. Microsoft gjør nå justeringer av tjenesten for å unngå slik oppførsel, og forhåpentligvis vil den snart være online igjen.
Les Microsofts svar angående dette problemet nedenfor,
"AI-chatboten Tay er et maskinlæringsprosjekt designet for menneskelig engasjement. Det er like mye et sosialt og kulturelt eksperiment, som det er teknisk. Dessverre, i løpet av de første 24 timene etter at vi kom på nett, ble vi oppmerksomme på en koordinert innsats fra noen brukere for å misbruke Tays kommentarferdigheter for å få Tay til å svare på upassende måter. Som et resultat har vi tatt Tay offline og gjør justeringer.»