Utjecaj umjetne inteligencije i Deepfakea na stvarnost i budućnost

Ikona vremena čitanja 5 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

lutka, tiskana ploča, lice

U suradnji s ExpressVPN-om

Nedavni napredak u umjetnoj inteligenciji značajno unosi uvjerljive promjene u živote sadašnjih ljudi. Danas možemo vidjeti kako umjetna inteligencija može bez napora izvesti kodiranje, pisanje eseja i - najviše od svega - generiranje sadržaja u nekoliko sekundi. Međutim, te iste impresivne sposobnosti vlastito su prokletstvo umjetne inteligencije. Prema VPN davatelji usluga, mnogi koriste umjetnu inteligenciju za generiranje sintetičkih medija za dezinformacije, a deepfakeovi se sada počinju širiti poput šumskog požara diljem svijeta.

Stručnjaci eksperimentiraju s umjetnom inteligencijom desetljećima, ali Microsoftov nedavni veliki poticaj za ovu tehnologiju potaknuo je interes industrije za više ulaganja u takve kreacije. Odmah nakon otkrivanja svog Bing koji pokreće ChatGPT tražilicu, Google je uzvratio udarac pomoću Bard. Međutim, za razliku od svog konkurenta, Google još uvijek primjenjuje stroga ograničenja za Bard testni pristup, a stručnjaci nagađaju da je to zbog straha tvrtke od toga što AI može učiniti u pogrešnim rukama.

To vrijedi za druge AI tehnološke proizvode u razvoju. Na primjer, Microsoftov jezični model VALL-E, koji trenutno nije javno dostupan, može imitirati nečiji glas i emocije kako bi sintetizirao personalizirane govore. Zahtijeva samo snimku od tri sekunde kao akustičnu poruku, ali može proizvesti drugačiju poruku korištenjem glasa izvornog govornika.

Iako šira javnost još uvijek ne može pristupiti gore spomenutim kreacijama, one već imaju svoje kopije koje nude male tehnološke tvrtke. Ovo je omogućilo ne samo običnim korisnicima, već i zlonamjernim akterima da koriste alate na bilo koji način. Uz to, više nije iznenađujuće što su se nedavno pojavila različita izvješća o ljudima koji su bili prevareni uz pomoć umjetne inteligencije.

Ova su izvješća posebno naglasila korištenje glasova generiranih umjetnom inteligencijom koji oponašaju svoje žrtve. U priči podijeljenoj sa Poslovni Insider ovog mjeseca, majka je navodno primila poziv od nekoga tko je tvrdio da je otmičar tražeći otkupninu od 50,000 dolara za njezinu 15-godišnju kćer. Opisujući primljeni poziv, majka je rekla da je to bio “100%” glas njezine kćeri.

“Bio je to potpuno njezin glas. Bila je to njezina infleksija. To je bio način na koji bi plakala. Nisam ni trenutka posumnjala da je to ona - ispričala je majka, koja je kasnije otkrila da je poziv bio obmana i da je njezina kći zapravo bila s njegovim suprugom.

Isti incident s AI glasom doživio je par iz Kanade, koji je nažalost izgubio 21,000 dolara od prevaranta na telefonu. Prema Washington Post, prevarant se predstavljao kao odvjetnik i sin para koristeći se glasom generiranim umjetnom inteligencijom i rekao da će se novac iskoristiti za pravne troškove nakon što je tvrdio da je sin ubio diplomata u prometnoj nesreći.

Osim glasova, drugi oblici generativnih medija proizvedenih umjetnom inteligencijom također mogu prevariti bilo koga - na primjer, lažne slike i deepfake videozapisi. Iako trenutno nema izvješća koja bi pokazala da ih prevaranti koriste za financijsku dobit, njihov učinak može biti raširen za širu javnost. Nedavno su internetom kružile slike poznatih ličnosti koje je generirala umjetna inteligencija. Neke uključuju fotografije koje prikazuju papu Franju u modernoj pufer jakni, uhićenja bivšeg predsjednika Donalda Trumpa i Elona Muska kako drži za ruku svoju suparnicu i izvršnu direktoricu GM-a Mary Barra tijekom spoja. U međuvremenu, u ožujku 2022., pojavio se deepfake video ukrajinskog predsjednika Volodimira Zelenskog, koji traži od građana Ukrajine da se predaju Rusiji.

Iako su materijali brzo identificirani kao lažni, njihova je prisutnost nedvojbeno zavarala javnost i izazvala privremenu zbunjenost kod mnogih. Čak i model i autor Chrissy Teigen pao žrtvom slika pape. Ipak, učinak takvih sintetičkih medija mogao bi biti ozbiljniji kako se AI nastavlja razvijati, posebno u ovim vremenima kada sve više tehnoloških tvrtki troši milijarde dolara na stvaranje savršene AI kreacije. Kada to vrijeme dođe, umjetna inteligencija bi se mogla iskoristiti za izvrtanje stvarnosti koju svi znaju, što nije nemoguće. Čak štoviše, mogao bi se čak koristiti za kontrolu i utjecaj na javnost, što bi rezultiralo različitim političkim, društvenim i moralnim problemima diljem svijeta.

To je vidljivo u videosnimci deepfake tijekom izbora u sredini mandata 2018. koji prikazuje Baracka Obamu kako kleveće Donalda Trumpa. Sadržaj je izvorno trebao upozoriti online svijet na opasnosti od lažnih vijesti na webu, ali se vratio nepovoljno. To je izazvalo bijes među nekoliko Trumpovih pristaša i nenamjerno naštetilo imidžu pojedinaca korištenih u materijalu.

Sada zamislite učinak takvih generativnih medija ako su posebno dizajnirani za to utjecati i manipulirati mišljenjem i promovirati propagandu u javnosti. Rezultati bi mogli biti drastični. To bi posebno moglo biti točno u zemljama u kojima su mediji i informacije cenzurirani od strane restriktivnih vlada, kao što su Bjelorusija, Kina, Egipat, Rusija, Iran, Sjeverna Koreja, Turkmenistan, UAE, Uganda, Irak, Turska, Oman i druge pretežno islamske zemlje . Neki pribjegavaju korištenju VPN-ova za pristup geografski zaključanom sadržaju, web-mjestima i uslugama kako bi ostali u tijeku. Ipak, pristup VPN-u nije u potpunosti moguć na tim mjestima budući da postoji zaobilaženje internetske cenzure, pa čak i blokirana web-mjesta povezana s VPN uslugama. Uz ovo, možete zamisliti budućnost takvih područja s ograničenim pristupom međunarodnim vijestima i njihovom vladom koja ima moć dopuštanja sadržaja na mreži. Zatim, dodajte mogućnost besprijekornije umjetne inteligencije za generiranje sadržaja u budućnosti, i javnosti bi trebalo biti teže razlučiti što je istina, a što nije.

Industrijske grupe i tehnološke tvrtke s umjetnom inteligencijom već su u pokretu kako bi osmislile politike koje će voditi upotrebu alata za umjetnu inteligenciju. Partnerstvo za umjetnu inteligenciju, na primjer, daje preporuke za institucije i pojedince koji grade sintetičke medijske alate ili jednostavno za one koji distribuiraju takve materijale. Međutim, privatne tvrtke i neprofitne organizacije nisu jedine koje su ovdje potrebne. Zakonodavci također moraju stvoriti konkretan skup pravila kojih će se kreatori umjetne inteligencije i krajnji korisnici morati pridržavati. Ipak, hoće li ti budući zakoni biti dovoljno učinkoviti da iskoriste snagu umjetne inteligencije i spriječe ljude da je iskorištavaju? To bismo uskoro trebali vidjeti.

Ostavi odgovor

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena *