Hvilke skritt tar OpenAI for å begrense bruken av AI-verktøy for politiske kampanjer?

Ikon for lesetid 2 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

OpenAIs beslutning om å introdusere verktøy for å bekjempe desinformasjon i forkant av valg i forskjellige land er et svar på potensielt misbruk av teknologien, som ChatGPT og DALL-E 3, til politiske kampanjer. Selskapet er bekymret for risikoen for at AI-drevet desinformasjon og feilinformasjon undergraver den demokratiske prosessen, spesielt i valgperioder.

Et nøkkelaspekt ved OpenAIStrategien er å begrense bruken av teknologien for politisk kampanje og lobbyvirksomhet inntil mer er kjent om den potensielle effekten av personlig overtalelse.

Selskapet erkjenner behovet for å forstå effektiviteten til verktøyene sine og jobber aktivt med løsninger for å sikre ansvarlig bruk. Dette inkluderer utvikling av verktøy for å gi pålitelig attribusjon til tekst generert av ChatGPT og gjøre det mulig for brukere å oppdage om et bilde ble opprettet ved hjelp av DALL-E 3.

OpenAI planlegger å implementere Coalition for Content Provenance and Authenticitys digitale legitimasjon for å forbedre metoder for å identifisere og spore digitalt innhold. Ved å gjøre det tar OpenAI sikte på å adressere bekymringer om ektheten til innhold generert ved hjelp av AI-modeller.

Selskapet tar også skritt for å sikre at modellene, som DALL-E 3, har "rekkverk" for å forhindre generering av bilder av ekte mennesker, inkludert politiske kandidater.

Utvikling og distribusjon av verktøy for å bekjempe desinformasjon representerer pågående innsats for å dempe den negative effekten av avansert AI-teknologi på samfunnet og demokratiske prosesser.

Mer her..

Mer om temaene: åpenAI