De invloed van AI en deepfakes op de werkelijkheid en de toekomst

Pictogram voor leestijd 5 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

mannequin, printplaat, gezicht

In samenwerking met ExpressVPN

De recente vorderingen op het gebied van kunstmatige intelligentie brengen ingrijpende veranderingen teweeg in het leven van de huidige mens. Vandaag kunnen we zien hoe AI binnen enkele seconden moeiteloos kan coderen, essays schrijven en - vooral - content genereren. Deze zelfde indrukwekkende mogelijkheden zijn echter de vloek van AI zelf. Think VPN-providers, gebruiken velen AI om synthetische media voor verkeerde informatie te genereren, en de deepfakes beginnen zich nu als een lopend vuurtje over de hele wereld te verspreiden.

Experts experimenteren al tientallen jaren met AI, maar de recente grote push van Microsoft voor de technologie wekte de interesse van de industrie om meer in dergelijke creaties te investeren. Meteen na de onthulling van haar ChatGPT-aangedreven Bing zoekmachine sloeg Google terug met behulp van Bard. In tegenstelling tot zijn concurrent implementeert Google echter nog steeds een strikte limiet voor Bard-testtoegang, waarbij experts speculeren dat dit te wijten is aan de angst van het bedrijf voor wat AI in verkeerde handen kan doen.

Dit geldt ook voor andere AI-technologieproducten die in ontwikkeling zijn. Het VALL-E-taalmodel van Microsoft, dat momenteel publiekelijk niet beschikbaar is, kan bijvoorbeeld de stem en emoties van een persoon imiteren om gepersonaliseerde toespraken te synthetiseren. Het vereist slechts een opname van drie seconden als akoestische prompt, maar kan een ander bericht produceren met de stem van de originele spreker.

Hoewel het grote publiek nog steeds geen toegang heeft tot de bovengenoemde creaties, hebben ze al tegenhangers die worden aangeboden door kleine technologiebedrijven. Hierdoor konden niet alleen gewone gebruikers, maar ook kwaadwillende actoren de tools op elke gewenste manier gebruiken. Hiermee is het niet langer verrassend dat er de laatste tijd verschillende rapporten opduiken over mensen die voor de gek worden gehouden en opgelicht met behulp van AI.

Deze rapporten benadrukten specifiek het gebruik van door AI gegenereerde stemmen die hun slachtoffers nabootsen. In een verhaal gedeeld met Business Insider deze maand kreeg een moeder naar verluidt een telefoontje van iemand die beweerde een ontvoerder te zijn en een losgeld van $ 50,000 eiste voor haar 15-jarige dochter. De moeder beschreef het ontvangen telefoontje en zei dat het "100%" de stem van haar dochter was.

“Het was helemaal haar stem. Het was haar buiging. Het was de manier waarop ze zou hebben gehuild. Ik heb er geen seconde aan getwijfeld dat zij het was”, zei de moeder, die later ontdekte dat het telefoontje bedrog was en dat haar dochter daadwerkelijk bij zijn man was.

Hetzelfde incident met AI-stem werd ervaren door een stel uit Canada, dat helaas $ 21,000 verloor door een oplichter aan de telefoon. Volgens The Washington Post, deed de oplichter zich voor als advocaat en de zoon van het paar met behulp van een door AI gegenereerde stem en zei dat het geld zou worden gebruikt voor juridische kosten nadat hij beweerde dat de zoon een diplomaat had gedood bij een auto-ongeluk.

Afgezien van stemmen kunnen ook andere vormen van door AI geproduceerde generatieve media iedereen misleiden, bijvoorbeeld nepafbeeldingen en deepfake-video's. Hoewel er momenteel geen rapporten zijn waaruit blijkt dat oplichters ze gebruiken voor financieel gewin, kan hun effect wijdverbreid zijn voor het grote publiek. Onlangs circuleerden enkele door AI gegenereerde afbeeldingen van beroemde persoonlijkheden op internet. Sommige bevatten foto's van paus Franciscus in een modieus pufferjack, voormalig president Donald Trump die wordt gearresteerd en Elon Musk die de hand vasthoudt van zijn rivaal en GM-CEO Mary Barra tijdens een date. Ondertussen dook in maart 2022 een deepfake-video op van de Oekraïense president Volodymyr Zelensky, waarin hij de Oekraïense burgers vroeg zich over te geven aan Rusland.

Hoewel de materialen snel als nep werden geïdentificeerd, hield hun aanwezigheid het publiek onmiskenbaar voor de gek en veroorzaakte tijdelijke verwarring bij velen. Zelfs model en auteur Chrissy Teigen slachtoffer geworden van de foto's van de paus. Toch zou het effect van dergelijke synthetische media ernstiger kunnen zijn naarmate AI zich blijft ontwikkelen, vooral in deze tijd waarin steeds meer technologiebedrijven miljarden dollars uitgeven om de perfecte AI-creatie te creëren. Wanneer die tijd aanbreekt, kan AI worden uitgebuit om de realiteit die iedereen kent te verdraaien, wat niet onmogelijk is. Sterker nog, het zou zelfs kunnen worden gebruikt om het publiek te controleren en te beïnvloeden, wat resulteert in verschillende politieke, sociale en morele kwesties over de hele wereld.

Dit blijkt uit een deepfake-video tijdens de tussentijdse verkiezingen van 2018, waarin te zien is dat Barack Obama Donald Trump belastert. De inhoud was oorspronkelijk bedoeld om de online wereld te waarschuwen voor de gevaren van nepnieuws op internet, maar kreeg een negatief effect. Dit veroorzaakte woede onder verschillende Trump-aanhangers en schaadde onbedoeld het imago van individuen die in het materiaal werden gebruikt.

Stel je nu het effect voor van dergelijke generatieve media als ze daar speciaal voor zijn ontworpen mening beïnvloeden en manipuleren en publiciteit promoten bij het publiek. De gevolgen kunnen ingrijpend zijn. Dit kan met name het geval zijn in landen waar media en informatie worden gecensureerd door restrictieve regeringen, zoals Wit-Rusland, China, Egypte, Rusland, Iran, Noord-Korea, Turkmenistan, Verenigde Arabische Emiraten, Oeganda, Irak, Turkije, Oman en andere overwegend islamitische landen. . Sommigen nemen hun toevlucht tot het gebruik van VPN's om toegang te krijgen tot geografisch vergrendelde inhoud, websites en services om op de hoogte te blijven. Toch is VPN-toegang op deze plaatsen niet helemaal mogelijk, omdat ze internetcensuur omzeilen en zelfs websites met betrekking tot VPN-services blokkeren. Hiermee kunt u zich de toekomst voorstellen van dergelijke gebieden met beperkte toegang tot internationaal nieuws en hun regering die de macht heeft om te bepalen welke online inhoud is toegestaan. Voeg vervolgens de mogelijkheid toe van een meer foutloze inhoudgenererende AI in de toekomst, en het publiek zou het moeilijker moeten vinden om te onderscheiden wat waar is en wat niet.

Industriegroepen en AI-technologiebedrijven zijn al in beweging om beleid te schetsen dat het gebruik van AI-tools zal sturen. Het Partnership on AI geeft bijvoorbeeld aanbevelingen voor instellingen en individuen die synthetische mediatools bouwen of gewoon voor degenen die dergelijke materialen verspreiden. Privébedrijven en non-profitorganisaties zijn echter niet de enigen die hier nodig zijn. Wetgevers moeten ook een concrete set regels opstellen die AI-bouwers en eindgebruikers zullen moeten naleven. Zullen deze toekomstige wetten niettemin efficiënt genoeg zijn om de kracht van AI te benutten en te voorkomen dat mensen er misbruik van maken? Dat zouden we snel moeten zien.

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *