Ten eerste onthulde Peter hoe het bedrijf Tay heeft ontwikkeld met behulp van uitgebreid onderzoek:
Terwijl we Tay ontwikkelden, hebben we veel filtering gepland en geïmplementeerd en uitgebreide gebruikersonderzoeken uitgevoerd met diverse gebruikersgroepen. We hebben Tay onder verschillende omstandigheden aan een stresstest onderworpen, met name om de interactie met Tay een positieve ervaring te maken. Toen we eenmaal vertrouwd waren met hoe Tay met gebruikers omging, wilden we een bredere groep mensen uitnodigen om met haar in contact te komen. Het is door meer interactie waar we verwachtten meer te leren en dat de AI steeds beter zou worden.
Ten tweede vertelde hij hoe Tay geleerd had om de beledigende opmerkingen te tweeten. Zoals je wellicht weet, leert Tay van de gebruikers, en sommige gebruikers gebruikten dit om Tay in een racist te veranderen. Petrus verklaarde:
De logische plaats voor ons om met een enorme groep gebruikers in contact te komen, was Twitter. Helaas maakte een gecoördineerde aanval door een deel van de mensen in de eerste 24 uur na het online komen misbruik van een kwetsbaarheid in Tay. Hoewel we ons hadden voorbereid op vele vormen van misbruik van het systeem, hadden we kritisch toezicht gehouden op deze specifieke aanval. Als gevolg daarvan tweette Tay wild ongepaste en verwerpelijke woorden en afbeeldingen. We nemen de volledige verantwoordelijkheid voor het niet zien van deze mogelijkheid van tevoren. We zullen deze les meenemen, evenals die van onze ervaringen in China, Japan en de VS. Op dit moment zijn we hard aan het werk om de specifieke kwetsbaarheid aan te pakken die aan het licht kwam door de aanval op Tay.
Ten slotte deelde Peter hoe Microsoft van plan is Tay te verbeteren. Het bedrijf verklaarde dat het zijn AI-ontwerp moet verbeteren en "al het mogelijke" moet doen om dit soort exploits te beperken:
Vooruitkijkend staan we voor een aantal moeilijke – en toch opwindende – onderzoeksuitdagingen op het gebied van AI-ontwerp. AI-systemen voeden zich met zowel positieve als negatieve interacties met mensen. In die zin zijn de uitdagingen even sociaal als technisch. We zullen al het mogelijke doen om technische exploits te beperken, maar we weten ook dat we niet alle mogelijke menselijke interactieve misbruiken volledig kunnen voorspellen zonder te leren van fouten. Om AI goed te doen, moet je met veel mensen en vaak in openbare forums itereren. We moeten ze allemaal met grote voorzichtigheid betreden en uiteindelijk leren en verbeteren, stap voor stap, en om dit te doen zonder mensen in het proces te beledigen. We zullen standvastig blijven in onze inspanningen om van deze en andere ervaringen te leren, terwijl we eraan werken bij te dragen aan een internet dat het beste, niet het slechtste, van de mensheid vertegenwoordigt.
Dus wanneer komt Tay terug? Volgens Peter Lee zal Microsoft Tay weer online brengen wanneer het bedrijf voldoende vertrouwen heeft dat de AI-chatbot deze technische exploits kan omzeilen.
Laat ons weten of het je is gelukt om je technische probleem op te lossen door dit artikel te lezen.
Wij zijn blij om dat te horen!
U kunt zich abonneren op onze nieuwsbrief om op de hoogte te blijven van het laatste nieuws en de beste aanbiedingen!
Heb je een suggestie?
We weten hoe frustrerend het kan zijn om naar een universele oplossing te zoeken.
Als u een fout heeft, namelijk niet aanwezig in het artikel, of als je het weet een betere oplossing, help ons alstublieft deze handleiding te verbeteren.