Indflydelsen af ​​AI og Deepfakes på virkeligheden og fremtiden

Ikon for læsetid 5 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

mannequin, printplade, ansigt

I samarbejde med ExpressVPN

De seneste fremskridt inden for kunstig intelligens medfører væsentlige ændringer i nuværende mænds liv. I dag kan vi se, hvordan AI ubesværet kan udføre kodning, essayskrivning og - mest af alt - indholdsgenerering på få sekunder. Disse samme imponerende egenskaber er dog AI's egen forbandelse. Ifølge VPN-udbydere, mange bruger AI til at generere syntetiske medier til misinformation, og deepfakes begynder nu at sprede sig som en steppebrand rundt om kloden.

Eksperter har eksperimenteret med kunstig intelligens i årtier, men Microsofts seneste store fremstød for teknologien udløste industriens interesse for at investere mere i sådanne kreationer. Lige efter afsløringen af ​​sin ChatGPT-drevet Bing søgemaskine, slog Google tilbage ved hjælp af Bard. I modsætning til sin konkurrent implementerer Google dog stadig en streng grænse for Bard-testadgang, hvor eksperter spekulerer i, at det skyldes virksomhedens frygt for, hvad AI kan gøre under de forkerte hænder.

Dette gælder i tilfælde af andre AI-teknologiske produkter under udvikling. For eksempel kan Microsofts VALL-E sprogmodel, som i øjeblikket ikke er offentligt tilgængelig, efterligne en persons stemme og følelser for at syntetisere personlige taler. Det kræver kun en tre-sekunders optagelse som sin akustiske prompt, men kan producere en anden besked ved hjælp af den originale højttalers stemme.

Mens offentligheden stadig ikke kan få adgang til de nævnte kreationer ovenfor, har de allerede modstykker, der tilbydes af små tech-firmaer. Dette har gjort det muligt for ikke bare almindelige brugere, men også ondsindede aktører at bruge værktøjerne, som de vil. Med dette er det ikke længere overraskende, at der for nylig er dukket forskellige rapporter op om folk, der bliver narret og snydt ved hjælp af kunstig intelligens.

Disse rapporter understregede specifikt brugen af ​​AI-genererede stemmer, der efterligner deres ofre. I en historie delt med Business Insider i denne måned modtog en mor efter sigende et opkald fra en, der hævdede at være en kidnapper, og krævede en løsesum på $50,000 for sin 15-årige datter. Moderen beskrev det modtagne opkald og sagde, at det var "100%" hendes datters stemme.

»Det var fuldstændig hendes stemme. Det var hendes bøjning. Det var den måde, hun ville have grædt på. Jeg var aldrig et sekund i tvivl om, at det var hende,” sagde moderen, som senere opdagede, at opkaldet var et bedrag, og at hendes datter faktisk var sammen med sin mand.

Den samme hændelse, der involverede AI-stemme, oplevede et par fra Canada, som desværre tabte $21,000 fra en svindler i telefonen. Ifølge The Washington Post, svindleren poserede som en advokat og parrets søn ved hjælp af en AI-genereret stemme og sagde, at pengene ville blive brugt til advokatsalærer efter at have hævdet, at sønnen dræbte en diplomat i en bilulykke.

Bortset fra stemmer kan andre former for AI-producerede generative medier også narre enhver - for eksempel falske billeder og deepfake-videoer. Selvom der ikke er nogen aktuelle rapporter, der viser svindlere, der bruger dem til økonomisk vinding, kan deres effekt være udbredt for den brede offentlighed. For nylig cirkulerede nogle AI-genererede billeder af berømte personligheder på nettet. Nogle inkluderer billeder, der viser pave Frans i en moderigtig pufferjakke, tidligere præsident Donald Trump bliver arresteret, og Elon Musks holder hånden på sin rival og GM-chef Mary Barra under en date. I mellemtiden, i marts 2022, dukkede en dybt falsk video af den ukrainske præsident Volodymyr Zelensky op, der bad ukrainske borgere om at overgive sig til Rusland.

Selvom materialerne hurtigt blev identificeret som falske, narrede deres tilstedeværelse unægteligt offentligheden og forårsagede midlertidig forvirring for mange. Selv model og forfatter Chrissy Teigen blev offer for billederne af paven. Alligevel kan effekten af ​​sådanne syntetiske medier blive mere alvorlig, efterhånden som AI fortsætter med at udvikle sig, især i disse tider, hvor flere teknologivirksomheder bruger milliarder af dollars på at skabe den perfekte AI-skabelse. Når den tid kommer, kunne AI udnyttes til at fordreje den virkelighed, alle kender, hvilket ikke er umuligt. Endnu mere kunne det endda bruges til at kontrollere og påvirke offentligheden, hvilket resulterer i forskellige politiske, sociale og moralske spørgsmål over hele kloden.

Dette er tydeligt i en deepfake-video under midtvejsvalget i 2018, der viser Barack Obama bagtale Donald Trump. Indholdet var oprindeligt beregnet til at advare onlineverdenen om farerne ved falske nyheder på nettet, men det steg negativt. Dette vakte raseri blandt flere Trump-tilhængere og skadede utilsigtet billedet af personer, der blev brugt i materialet.

Forestil dig nu effekten af ​​sådanne generative medier, hvis de var specifikt designet til påvirke og manipulere meninger og fremme propaganda til offentligheden. Resultaterne kan være drastiske. Dette kunne specifikt være sandt i lande, hvor medier og information bliver censureret af restriktive regeringer, såsom Hviderusland, Kina, Egypten, Rusland, Iran, Nordkorea, Turkmenistan, UAE, Uganda, Irak, Tyrkiet, Oman og andre overvejende islamiske lande . Nogle tyr til at bruge VPN'er til at få adgang til geografisk låst indhold, websteder og tjenester for at holde sig opdateret. Alligevel er VPN-adgang ikke helt mulig på disse steder, da de har omgået internetcensur og endda blokerede websteder relateret til VPN-tjenester. Med dette kan du forestille dig fremtiden for sådanne områder med begrænset adgang til internationale nyheder, og deres regering har magten til, hvilket onlineindhold de skal tillade. Tilføj derefter muligheden for en mere fejlfri indholdsgenererende AI i fremtiden, og offentligheden skulle finde det sværere at skelne, hvad der er sandt, og hvad der ikke er.

Industrigrupper og AI-teknologivirksomheder er allerede i gang med at skitsere politikker, der vil guide brugen af ​​AI-værktøjer. Partnerskabet om kunstig intelligens giver for eksempel anbefalinger til institutioner og enkeltpersoner, der bygger syntetiske medieværktøjer eller blot til dem, der distribuerer sådanne materialer. Private virksomheder og non-profit organisationer er dog ikke de eneste, der er nødvendige her. Lovgivere skal også skabe et konkret sæt regler, som AI-byggere og slutbrugere vil blive presset til at overholde. Ikke desto mindre, vil disse fremtidige love være effektive nok til at udnytte AI-kraften og forhindre folk i at udnytte den? Det burde vi snart se.

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *