Innflytelsen av AI og Deepfakes på virkeligheten og fremtiden

Ikon for lesetid 5 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

mannequin, kretskort, ansikt

I samarbeid med ExpressVPN

De siste fremskrittene innen kunstig intelligens gjør betydelige endringer i livene til nåværende menn. I dag kan vi se hvordan AI enkelt kan utføre koding, essayskriving og – mest av alt – innholdsgenerering i løpet av sekunder. Disse samme imponerende egenskapene er imidlertid AIs egen forbannelse. Ifølge VPN-leverandører, mange bruker AI for å generere syntetiske medier for feilinformasjon, og deepfakes begynner nå å spre seg som en ild i tørt gress over hele kloden.

Eksperter har eksperimentert med kunstig intelligens i flere tiår, men Microsofts nylige store fremstøt for teknologien vakte industriens interesse for å investere mer i slike kreasjoner. Rett etter avdukingen av sin ChatGPT-drevet Bing søkemotor, slo Google tilbake å bruke Bard. I motsetning til konkurrenten, implementerer Google fortsatt en streng grense for Bard-testtilgang, med eksperter som spekulerer i at det er på grunn av selskapets frykt for hva AI kan gjøre under feil hender.

Dette gjelder for andre AI-teknologiprodukter under utvikling. For eksempel kan Microsofts VALL-E-språkmodell, som for øyeblikket ikke er offentlig tilgjengelig, imitere en persons stemme og følelser for å syntetisere personlige taler. Den krever bare et tre sekunders opptak som sin akustiske prompt, men kan produsere en annen melding ved å bruke den originale høyttalerens stemme.

Mens allmennheten fortsatt ikke har tilgang til de nevnte kreasjonene ovenfor, har de allerede motparter som tilbys av små teknologifirmaer. Dette har tillatt ikke bare vanlige brukere, men også ondsinnede aktører å bruke verktøyene på hvilken som helst måte de vil. Med dette er det ikke lenger overraskende at det nylig har dukket opp ulike rapporter om folk som blir lurt og svindlet ved hjelp av AI.

Disse rapportene understreket spesifikt bruken av AI-genererte stemmer som etterligner ofrene deres. I en historie delt med Business Insider denne måneden skal en mor ha mottatt en telefon fra noen som hevdet å være en kidnapper og krevde en løsepenge på 50,000 15 dollar for sin 100 år gamle datter. Moren beskrev samtalen mottatt og sa at det var «XNUMX %» datterens stemme.

«Det var helt hennes stemme. Det var bøyningen hennes. Det var slik hun ville ha grått. Jeg tvilte aldri et sekund på at det var henne, sa moren, som senere oppdaget at samtalen var et bedrag og at datteren faktisk var sammen med mannen hans.

Den samme hendelsen som involverte AI-stemme ble opplevd av et par fra Canada, som dessverre tapte $21,000 XNUMX fra en svindler på telefonen. I følge The Washington Post, utga svindleren seg som en advokat og parets sønn ved å bruke en AI-generert stemme og sa at pengene ville bli brukt til advokatkostnader etter å ha hevdet at sønnen drepte en diplomat i en bilulykke.

Bortsett fra stemmer, kan andre former for AI-produserte generative medier også lure hvem som helst – for eksempel falske bilder og dypfalske videoer. Selv om det ikke finnes noen rapporter som viser svindlere som bruker dem for økonomisk vinning, kan effekten være utbredt for allmennheten. Nylig sirkulerte noen AI-genererte bilder av kjente personligheter på nettet. Noen inkluderer bilder som viser pave Frans i en fasjonabel pufferjakke, tidligere president Donald Trump blir arrestert, og Elon Musks holder hånden til sin rival og GM-sjef Mary Barra under en date. I mellomtiden, i mars 2022, dukket det opp en dypt falsk video av Ukrainas president Volodymyr Zelensky, som ba ukrainske borgere om å overgi seg til Russland.

Selv om materialene raskt ble identifisert som falske, lurte deres tilstedeværelse unektelig publikum og forårsaket midlertidig forvirring for mange. Selv modell og forfatter Chrissy Teigen ble offer for bildene av paven. Likevel kan effekten av slike syntetiske medier bli mer alvorlig ettersom AI fortsetter å utvikle seg, spesielt i disse tider med flere teknologiselskaper som bruker milliarder av dollar på å lage den perfekte AI-skapelsen. Når den tiden kommer, kan AI utnyttes til å vri virkeligheten alle kjenner, noe som ikke er umulig. Enda mer, det kan til og med brukes til å kontrollere og påvirke publikum, noe som resulterer i forskjellige politiske, sosiale og moralske spørsmål over hele verden.

Dette er tydelig i en dypt falsk video under mellomvalget i 2018 som viser Barack Obama baktale Donald Trump. Innholdet var opprinnelig ment å advare nettverdenen om farene ved falske nyheter på nettet, men det slo seg tilbake. Dette forårsaket raseri blant flere Trump-tilhengere og skadet utilsiktet bildet av individer som ble brukt i materialet.

Forestill deg effekten av slike generative medier hvis de var spesielt designet for påvirke og manipulere meninger og fremme propaganda til publikum. Resultatene kan bli drastiske. Dette kan spesifikt være sant i land der medier og informasjon blir sensurert av restriktive myndigheter, som Hviterussland, Kina, Egypt, Russland, Iran, Nord-Korea, Turkmenistan, UAE, Uganda, Irak, Tyrkia, Oman og andre overveiende islamske land . Noen tyr til å bruke VPN-er for å få tilgang til geografisk låst innhold, nettsteder og tjenester for å holde seg oppdatert. Likevel er VPN-tilgang ikke helt mulig på disse stedene siden de har omgåelse av internettsensur og til og med blokkerte nettsteder relatert til VPN-tjenester. Med dette kan du forestille deg fremtiden til slike områder med begrenset tilgang til internasjonale nyheter og deres regjering har makten til hvilket nettinnhold som skal tillate. Legg deretter til muligheten for en mer feilfri innholdsgenererende AI i fremtiden, og publikum bør finne det vanskeligere å skjelne hva som er sant og hva som ikke er det.

Industrigrupper og AI-teknologiselskaper er allerede i gang med å skissere retningslinjer som vil lede bruken av AI-verktøy. Partnership on AI, for eksempel, gir anbefalinger til institusjoner og enkeltpersoner som bygger syntetiske medieverktøy eller rett og slett for de som distribuerer slikt materiale. Private selskaper og ideelle organisasjoner er imidlertid ikke de eneste som trengs her. Lovgivere må også lage et konkret sett med regler som AI-byggere og sluttbrukere vil bli presset til å overholde. Likevel, vil disse fremtidige lovene være effektive nok til å utnytte kraften til AI og hindre folk i å utnytte den? Det burde vi snart se.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *