Az AI és a Deepfakes hatása a valóságra és a jövőre

Olvasási idő ikonra 5 perc olvas


Az olvasók segítenek az MSpoweruser támogatásában. Kaphatunk jutalékot, ha a linkjeinken keresztül vásárol. Eszköztipp ikon

Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább

manöken, áramköri lap, arc

Az ExpressVPN-nel együttműködve

A mesterséges intelligencia közelmúltbeli fejlődése jelentős változásokat hoz a jelenlegi férfiak életében. Ma már láthatjuk, hogy az AI hogyan tud könnyedén, pillanatok alatt kódolni, esszéírást és – legfőképpen – tartalmat generálni. Ugyanezek a lenyűgöző képességek azonban az AI saját átka. Szerint VPN-szolgáltatók, sokan mesterséges intelligencia segítségével állítanak elő szintetikus médiát félretájékoztatás céljából, és a mélyhamisítások most futótűzként kezdenek terjedni az egész világon.

A szakértők már évtizedek óta kísérleteznek az AI-val, de a Microsoft közelmúltban a technológia iránti nagy lendülete felkeltette az iparág érdeklődését amellett, hogy többet fektessenek be ilyen alkotásokba. Közvetlenül a leleplezése után ChatGPT-alapú Bing keresőmotor, a Google visszaütött a használatával Dalnok. Versenytársától eltérően azonban a Google továbbra is szigorú korlátozásokat vezet be a Bard-teszthez való hozzáférésre, a szakértők szerint ennek oka a vállalat attól való félelme, hogy az AI mit tehet rossz kezek alatt.

Ez igaz más, fejlesztés alatt álló mesterséges intelligencia-technológiai termékekre is. Például a Microsoft VALL-E nyelvi modellje, amely jelenleg nyilvánosan nem elérhető, képes utánozni egy személy hangját és érzelmeit személyre szabott beszédek szintetizálása érdekében. Csak három másodperces felvételt igényel akusztikus felszólításaként, de az eredeti beszélő hangját használva más üzenetet is előállíthat.

Bár a nagyközönség továbbra sem férhet hozzá a fent említett alkotásokhoz, már vannak olyan megfelelőik, amelyeket a kis technológiai cégek kínálnak. Ez lehetővé tette nemcsak a hétköznapi felhasználók számára, hanem a rosszindulatú szereplők számára is, hogy tetszőleges módon használják az eszközöket. Ezzel már nem meglepő, hogy a közelmúltban különböző jelentések láttak napvilágot arról, hogy az AI segítségével becsapják és átverik az embereket.

Ezek a jelentések kifejezetten hangsúlyozták a mesterséges intelligencia által generált, áldozataikat utánzó hangok használatát. Vele megosztott történetben Business Insider Ebben a hónapban állítólag egy anyát felhívott valaki, aki azt mondta, hogy emberrabló, és 50,000 15 dollár váltságdíjat követelt 100 éves lányáért. A fogadott hívás leírásakor az anya azt mondta, hogy „XNUMX%-ban” a lánya hangja.

„Teljesen az ő hangja volt. Az ő inflexiója volt. Így sírt volna. Egy pillanatig sem kételkedtem benne, hogy ő az” – mondta az anya, aki később rájött, hogy a hívás megtévesztés volt, és hogy a lánya valójában a férjével volt.

Ugyanezt az incidenst az AI hangjával kapcsolatban élte át egy kanadai házaspár, akik sajnos 21,000 XNUMX dollárt veszítettek egy csalótól a telefonban. Alapján The Washington Post, a csaló ügyvédnek és a pár fiának adta ki magát egy mesterséges intelligencia által generált hangon, és azt mondta, hogy a pénzt jogi költségekre fordítják, miután azt állította, hogy a fia megölt egy diplomatát egy autóbalesetben.

A hangokon kívül a mesterséges intelligencia által előállított generatív média egyéb formái is becsaphatnak bárkit – például hamis képek és mélyhamis videók. Bár jelenleg nincsenek olyan jelentések, amelyek azt mutatnák, hogy a csalók anyagi haszonszerzés céljából használják fel őket, hatásuk széles körben elterjedhet a nagyközönség számára. A közelmúltban néhány mesterséges intelligencia által generált kép keringett a világhálón híres személyiségekről. Némelyik fotókon Ferenc pápa látható divatos pufi kabátban, Donald Trump volt elnököt letartóztatják, és Elon Musk riválisa és a GM vezérigazgatója, Mary Barra kezét fogja randevúzni. Eközben 2022 márciusában egy mély hamis videó jelent meg Volodimir Zelenszkij ukrán elnökről, amely arra kérte az ukrán állampolgárokat, hogy adjanak meg magukat Oroszországnak.

Bár az anyagokat hamar hamisnak találták, jelenlétük tagadhatatlanul megtévesztette a közvéleményt, és sokakban átmeneti zavart okozott. Még modell és szerző is Chrissy TEIGEN áldozatul esett a pápa képeinek. Az ilyen szintetikus médiák hatása azonban súlyosabb lehet, ahogy az AI tovább fejlődik, különösen ezekben az időkben, amikor egyre több technológiai vállalat költ dollármilliárdokat a tökéletes mesterséges intelligencia létrehozására. Amikor eljön az idő, a mesterséges intelligencia kihasználható a mindenki által ismert valóság elforgatására, ami nem lehetetlen. Sőt, még a nyilvánosság ellenőrzésére és befolyásolására is használható, ami különböző politikai, társadalmi és erkölcsi problémákat eredményezhet szerte a világon.

Ez nyilvánvaló egy hamisított videón a 2018-as félidős választásokon, amelyen Barack Obama Donald Trumpot szidalmazza. A tartalomnak eredetileg az volt a célja, hogy figyelmeztesse az online világot az interneten megjelenő álhírek veszélyeire, de ez visszapattant. Ez dühöt váltott ki Trump több támogatójában, és akaratlanul is sértette az anyagban használt személyekről alkotott képet.

Most képzeljük el, milyen hatást gyakorolnak az ilyen generatív médiák, ha kifejezetten erre tervezték őket befolyásolni és manipulálni a véleményt és népszerűsítse a propagandát a nyilvánosság számára. Az eredmények drasztikusak lehetnek. Ez különösen igaz azokra az országokra, ahol a médiát és az információkat korlátozó kormányok cenzúrázzák, mint például Fehéroroszország, Kína, Egyiptom, Oroszország, Irán, Észak-Korea, Türkmenisztán, Egyesült Arab Emírségek, Uganda, Irak, Törökország, Omán és más túlnyomórészt iszlám országok. . Vannak, akik VPN-eket használnak a földrajzilag zárolt tartalmak, webhelyek és szolgáltatások eléréséhez, hogy naprakészek maradjanak. A VPN-hozzáférés azonban nem teljesen lehetséges ezeken a helyeken, mivel megkerülik az internetes cenzúrát, és még a VPN-szolgáltatásokhoz kapcsolódó webhelyeket is blokkolják. Ezzel el tudja képzelni az ilyen területek jövőjét, ahol korlátozottan férnek hozzá a nemzetközi hírekhez, és kormányuknak megvan a hatalma, hogy milyen online tartalmat engedélyezzen. Ezután adjuk hozzá egy hibátlanabb tartalomgeneráló mesterséges intelligencia lehetőségét a jövőben, és a közvélemény nehezebben fogja felismerni, mi igaz és mi nem.

Az iparági csoportok és a mesterséges intelligencia-technológiai vállalatok már azon dolgoznak, hogy felvázolják azokat az irányelveket, amelyek irányítani fogják az AI-eszközök használatát. Az AI-partnerség például ajánlásokat ad szintetikus médiaeszközöket építő intézményeknek és magánszemélyeknek, vagy egyszerűen az ilyen anyagokat terjesztőknek. Itt azonban nem csak magáncégekre és non-profit szervezetekre van szükség. A jogalkotóknak konkrét szabályokat is meg kell alkotniuk, amelyek betartására az AI-készítőket és a végfelhasználókat kényszerítik. Mindazonáltal ezek a jövőbeli törvények elég hatékonyak lesznek-e ahhoz, hogy kihasználják az AI erejét, és megakadályozzák, hogy az emberek kihasználják azt? Ezt hamarosan látnunk kell.

Hagy egy Válaszol

E-mail címed nem kerül nyilvánosságra. Kötelező kitölteni *