Microsoft gjør justeringer av Tay for å unngå upassende svar

Ikon for lesetid 1 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

tayai

For noen timer tilbake, vi rapportert at Microsoft allerede har stoppet sin nye chatbot-tjeneste, Tay. I går lanserte Microsoft Tay, et maskinlæringsprosjekt for å vite mer om menneskelig interaksjon. Det gikk viralt på nettet og tusenvis av brukere begynte å samhandle med det. Etter flere timer med lansering begynte Tay å svare på upassende måter, inkludert rasistiske og fornærmende kommentarer fordi hun lærte dem fra interaksjoner med internett-troll. Microsoft gjør nå justeringer av tjenesten for å unngå slik oppførsel, og forhåpentligvis vil den snart være online igjen.

Les Microsofts svar angående dette problemet nedenfor,

"AI-chatboten Tay er et maskinlæringsprosjekt designet for menneskelig engasjement. Det er like mye et sosialt og kulturelt eksperiment, som det er teknisk. Dessverre, i løpet av de første 24 timene etter at vi kom på nett, ble vi oppmerksomme på en koordinert innsats fra noen brukere for å misbruke Tays kommentarferdigheter for å få Tay til å svare på upassende måter. Som et resultat har vi tatt Tay offline og gjør justeringer.»

Mer om temaene: ai, chatbot, maskinlæring, microsoft, offline, på nett, tjeneste, tay

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *