Koje korake OpenAI poduzima kako bi ograničio upotrebu AI alata za političke kampanje?

Ikona vremena čitanja 2 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

Odluka OpenAI-ja da uvede alate za borbu protiv dezinformacija uoči izbora u raznim zemljama odgovor je na potencijalnu zlouporabu njegove tehnologije, kao što su ChatGPT i DALL-E 3, za političke kampanje. Tvrtka je zabrinuta zbog rizika od dezinformacija i dezinformacija potaknutih umjetnom inteligencijom koji potkopavaju demokratski proces, posebno tijekom izbornih razdoblja.

Jedan ključni aspekt OpenAIStrategija tvrtke je ograničiti korištenje svoje tehnologije za političke kampanje i lobiranje dok se ne sazna više o potencijalnom učinku personaliziranog uvjeravanja.

Tvrtka priznaje potrebu za razumijevanjem učinkovitosti svojih alata i aktivno radi na rješenjima za osiguranje odgovorne upotrebe. To uključuje razvoj alata za pružanje pouzdane atribucije tekstu koji generira ChatGPT i omogućavanje korisnicima da otkriju je li slika stvorena pomoću DALL-E 3.

OpenAI planira implementirati digitalne vjerodajnice Coalition for Content Provenance and Authenticity kako bi poboljšao metode za prepoznavanje i praćenje digitalnog sadržaja. Čineći to, OpenAI ima za cilj riješiti zabrinutost oko autentičnosti sadržaja generiranog korištenjem AI modela.

Tvrtka također poduzima korake kako bi osigurala da njeni modeli, kao što je DALL-E 3, imaju "zaštitne ograde" kako bi se spriječilo stvaranje slika stvarnih ljudi, uključujući političke kandidate.

Razvoj i implementacija alata za borbu protiv dezinformacija predstavljaju stalne napore za ublažavanje negativnog utjecaja naprednih AI tehnologija na društvo i demokratske procese.

more ovdje.

Više o temama: otvoriAI