Hier leest u hoe Tay fout ging en wat Microsoft eraan doet

Pictogram voor leestijd 3 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

tajai

Microsoft onlangs geïntroduceerd een AI Chatbot genaamd Tay. De chatbot was eigenlijk best intelligent, maar het maakte enkele beledigende en racistische tweets na een "gecoördineerde" aanval. Vandaag heeft Peter Lee, de Corporate Vice President van Microsoft Research, zijn excuses aangeboden voor Tay's tweets. Hij deelde echter ook hoe Tay fout ging en wat het bedrijf van plan is eraan te doen.

Ten eerste onthulde Peter hoe het bedrijf Tay heeft ontwikkeld met behulp van uitgebreid onderzoek:

Terwijl we Tay ontwikkelden, hebben we veel filtering gepland en geïmplementeerd en uitgebreide gebruikersonderzoeken uitgevoerd met diverse gebruikersgroepen. We hebben Tay onder verschillende omstandigheden aan een stresstest onderworpen, met name om de interactie met Tay een positieve ervaring te maken. Toen we eenmaal vertrouwd waren met hoe Tay met gebruikers omging, wilden we een bredere groep mensen uitnodigen om met haar in contact te komen. Het is door meer interactie waar we verwachtten meer te leren en dat de AI steeds beter zou worden.

Ten tweede vertelde hij hoe Tay geleerd had om de beledigende opmerkingen te tweeten. Zoals je wellicht weet, leert Tay van de gebruikers, en sommige gebruikers gebruikten dit om Tay in een racist te veranderen. Petrus verklaarde:

De logische plaats voor ons om met een enorme groep gebruikers in contact te komen, was Twitter. Helaas maakte een gecoördineerde aanval door een deel van de mensen in de eerste 24 uur na het online komen misbruik van een kwetsbaarheid in Tay. Hoewel we ons hadden voorbereid op vele vormen van misbruik van het systeem, hadden we kritisch toezicht gehouden op deze specifieke aanval. Als gevolg daarvan tweette Tay wild ongepaste en verwerpelijke woorden en afbeeldingen. We nemen de volledige verantwoordelijkheid voor het niet zien van deze mogelijkheid van tevoren. We zullen deze les meenemen, evenals die van onze ervaringen in China, Japan en de VS. Op dit moment zijn we hard aan het werk om de specifieke kwetsbaarheid aan te pakken die aan het licht kwam door de aanval op Tay.

Ten slotte deelde Peter hoe Microsoft van plan is Tay te verbeteren. Het bedrijf verklaarde dat het zijn AI-ontwerp moet verbeteren en "al het mogelijke" moet doen om dit soort exploits te beperken:

Vooruitkijkend staan ​​we voor een aantal moeilijke – en toch opwindende – onderzoeksuitdagingen op het gebied van AI-ontwerp. AI-systemen voeden zich met zowel positieve als negatieve interacties met mensen. In die zin zijn de uitdagingen even sociaal als technisch. We zullen al het mogelijke doen om technische exploits te beperken, maar we weten ook dat we niet alle mogelijke menselijke interactieve misbruiken volledig kunnen voorspellen zonder te leren van fouten. Om AI goed te doen, moet je met veel mensen en vaak in openbare forums itereren. We moeten ze allemaal met grote voorzichtigheid betreden en uiteindelijk leren en verbeteren, stap voor stap, en om dit te doen zonder mensen in het proces te beledigen. We zullen standvastig blijven in onze inspanningen om van deze en andere ervaringen te leren, terwijl we eraan werken bij te dragen aan een internet dat het beste, niet het slechtste, van de mensheid vertegenwoordigt.

Dus wanneer komt Tay terug? Volgens Peter Lee zal Microsoft Tay weer online brengen wanneer het bedrijf voldoende vertrouwen heeft dat de AI-chatbot deze technische exploits kan omzeilen.

Meer over de onderwerpen: ai, microsoft, Microsoft onderzoek, Tay