Microsoft past Tay aan om ongepaste reacties te voorkomen

Pictogram voor leestijd 1 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

tajai

Enkele uren terug, we gerapporteerd dat Microsoft zijn nieuwe chatbotservice Tay al heeft stopgezet. Gisteren lanceerde Microsoft Tay, een machine learning-project om meer te weten te komen over menselijke interactie. Het ging online viraal en duizenden gebruikers begonnen ermee te communiceren. Na enkele uren lancering begon Tay op ongepaste manieren te reageren, inclusief racistische en beledigende opmerkingen omdat ze deze had geleerd van haar interacties met internettrollen. Microsoft maakt nu aanpassingen aan de service om dergelijk gedrag te voorkomen en hopelijk zal het snel weer online zijn.

Lees het antwoord van Microsoft met betrekking tot dit probleem hieronder,

“De AI-chatbot Tay is een machine learning-project, ontworpen voor menselijke betrokkenheid. Het is evenzeer een sociaal en cultureel experiment als technisch. Helaas werden we ons binnen de eerste 24 uur na onlinekomst bewust van een gecoördineerde poging van sommige gebruikers om Tay's commentaarvaardigheden te misbruiken om Tay op ongepaste manieren te laten reageren. Als gevolg hiervan hebben we Tay offline gehaald en zijn we bezig met aanpassingen.”

Meer over de onderwerpen: ai, Chatbot, machine learning, microsoft, offline, online., service, Tay

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *