Katere korake sprejema OpenAI za omejitev uporabe orodij AI za politične kampanje?

Ikona časa branja 2 min. prebrati


Bralci pomagajo pri podpori MSpoweruser. Če kupujete prek naših povezav, lahko prejmemo provizijo. Ikona opisa orodja

Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več

Odločitev OpenAI, da uvede orodja za boj proti dezinformacijam pred volitvami v različnih državah, je odgovor na morebitno zlorabo njegove tehnologije, kot sta ChatGPT in DALL-E 3, za politične kampanje. Podjetje je zaskrbljeno zaradi tveganja, da bi dezinformacije in dezinformacije, ki jih poganja umetna inteligenca, spodkopale demokratični proces, zlasti v volilnih obdobjih.

Eden od ključnih vidikov OpenAINjegova strategija je omejiti uporabo svoje tehnologije za politične kampanje in lobiranje, dokler ne bo znanega več o potencialnem vplivu personaliziranega prepričevanja.

Podjetje priznava potrebo po razumevanju učinkovitosti svojih orodij in aktivno dela na rešitvah za zagotavljanje odgovorne uporabe. To vključuje razvoj orodij za zagotavljanje zanesljivega pripisa besedilu, ki ga ustvari ChatGPT, in omogočanje uporabnikom, da zaznajo, ali je bila slika ustvarjena z uporabo DALL-E 3.

OpenAI načrtuje implementacijo digitalnih poverilnic Coalition for Content Provenance and Authenticity za izboljšanje metod za prepoznavanje in sledenje digitalni vsebini. S tem želi OpenAI odpraviti pomisleke glede pristnosti vsebine, ustvarjene z uporabo modelov AI.

Podjetje prav tako sprejema ukrepe za zagotovitev, da imajo njegovi modeli, kot je DALL-E 3, "varovalne ograje", ki preprečujejo ustvarjanje slik resničnih ljudi, vključno s političnimi kandidati.

Razvoj in uporaba orodij za boj proti dezinformacijam predstavlja stalna prizadevanja za ublažitev negativnega vpliva naprednih tehnologij umetne inteligence na družbo in demokratične procese.

Več tukaj.

Več o temah: openAI