Her er, hvordan Tay gik galt, og hvad Microsoft gør ved det

Ikon for læsetid 3 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

tayai

microsoft for nylig introduceret en AI Chatbot kaldet Tay. Chatbotten var faktisk ret intelligent, men den lavede nogle stødende og racistiske tweets efter et "koordineret" angreb. I dag undskyldte Peter Lee, Corporate Vice President for Microsoft Research, for Tays tweets. Han delte dog også, hvordan Tay gik galt, og hvad virksomheden planlægger at gøre ved det.

For det første afslørede Peter, hvordan virksomheden udviklede Tay ved hjælp af omfattende forskning:

Da vi udviklede Tay, planlagde og implementerede vi en masse filtrering og gennemførte omfattende brugerundersøgelser med forskellige brugergrupper. Vi stresstestede Tay under en række forskellige forhold, specifikt for at gøre interaktionen med Tay til en positiv oplevelse. Da vi blev fortrolige med, hvordan Tay interagerede med brugere, ønskede vi at invitere en bredere gruppe mennesker til at engagere sig med hende. Det er gennem øget interaktion, hvor vi forventede at lære mere, og at AI'en blev bedre og bedre.

For det andet talte han om, hvordan Tay blev lært at tweete de stødende kommentarer. Som du måske ved, lærer Tay af brugerne, og nogle brugere brugte dette til at gøre Tay til en racist. Peter udtalte:

Det logiske sted for os at engagere os med en massiv gruppe af brugere var Twitter. Desværre udnyttede et koordineret angreb fra en undergruppe af mennesker i de første 24 timer, efter at de kom online, en sårbarhed i Tay. Selvom vi havde forberedt os på mange typer af misbrug af systemet, havde vi foretaget et kritisk tilsyn med dette specifikke angreb. Som følge heraf tweetede Tay vildt upassende og forkastelige ord og billeder. Vi tager det fulde ansvar for ikke at se denne mulighed på forhånd. Vi vil tage denne lektion videre såvel som dem fra vores erfaringer i Kina, Japan og USA. Lige nu arbejder vi hårdt på at adressere den specifikke sårbarhed, der blev afsløret af angrebet på Tay.

Til sidst delte Peter, hvordan Microsoft planlægger at forbedre Tay. Virksomheden erklærede, at den er nødt til at forbedre sit AI-design og gøre "alt muligt" for at begrænse udnyttelser som dette:

Når vi ser fremad, står vi over for nogle svære – og alligevel spændende – forskningsudfordringer inden for AI-design. AI-systemer lever af både positive og negative interaktioner med mennesker. I den forstand er udfordringerne lige så meget sociale, som de er tekniske. Vi vil gøre alt for at begrænse tekniske udnyttelser, men vi ved også, at vi ikke fuldt ud kan forudsige alle mulige menneskelige interaktive misbrug uden at lære af fejl. For at gøre AI rigtigt skal man iterere med mange mennesker og ofte i offentlige fora. Vi skal gå ind i hver enkelt med stor forsigtighed og i sidste ende lære og forbedre, trin for trin, og for at gøre dette uden at støde folk i processen. Vi vil forblive standhaftige i vores bestræbelser på at lære af denne og andre erfaringer, mens vi arbejder hen imod at bidrage til et internet, der repræsenterer det bedste, ikke det værste, ved menneskeheden.

Så hvornår kommer Tay tilbage? Ifølge Peter Lee vil Microsoft bringe Tay online igen, når virksomheden er sikker nok på, at AI-chatbot er i stand til at omgå disse tekniske udnyttelser.

Mere om emnerne: ai, microsoft, Microsoft-forskning, tay