Vliv AI a Deepfakes na realitu a budoucnost

Ikona času čtení 5 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

manekýn, obvodová deska, obličej

Ve spolupráci s ExpressVPN

Nedávné pokroky v umělé inteligenci významně mění životy současných mužů. Dnes můžeme vidět, jak umělá inteligence dokáže bez námahy provádět kódování, psaní esejí a – především – generování obsahu během několika sekund. Tyto stejné působivé schopnosti jsou však prokletím AI. Podle Poskytovatelé VPNMnoho lidí používá umělou inteligenci ke generování syntetických médií pro dezinformace a deepfakes se nyní začínají šířit jako požár po celém světě.

Odborníci experimentují s umělou inteligencí po celá desetiletí, ale nedávný velký tlak společnosti Microsoft na tuto technologii podnítil zájem odvětví více investovat do takových výtvorů. Hned po jeho odhalení Bing s podporou ChatGPT vyhledávač, Google odvrátil pomocí Bard. Na rozdíl od svého konkurenta však Google stále zavádí přísný limit pro Bardův testovací přístup, přičemž odborníci spekulují, že je to kvůli strachu společnosti z toho, co dokáže umělá inteligence ve špatných rukou.

To platí v případě dalších produktů AI ve vývoji. Například jazykový model VALL-E společnosti Microsoft, který je v současné době veřejně nedostupný, dokáže napodobit hlas a emoce člověka a syntetizovat personalizované projevy. Vyžaduje pouze třísekundovou nahrávku jako akustickou výzvu, ale může vytvořit jinou zprávu pomocí hlasu původního mluvčího.

Zatímco široká veřejnost stále nemá přístup k výše uvedeným výtvorům, již mají protějšky nabízené malými technologickými firmami. To umožnilo nejen běžným uživatelům, ale i zlomyslným aktérům používat nástroje jakýmkoliv způsobem. Díky tomu už není překvapivé, že se v poslední době objevují různé zprávy o tom, že lidé byli oklamáni a podvedeni pomocí AI.

Tyto zprávy konkrétně zdůrazňovaly použití hlasů generovaných umělou inteligencí napodobujících jejich oběti. V příběhu sdíleném s Business Insider tento měsíc údajně jedna matka obdržela telefonát od někoho, kdo tvrdil, že je únosce a požaduje výkupné 50,000 15 dolarů za její 100letou dceru. Při popisu přijatého hovoru matka uvedla, že to byl „XNUMX%“ hlas její dcery.

“ Byl to celý její hlas. Bylo to její skloňování. Bylo to tak, jak by plakala. Ani na vteřinu jsem nepochybovala, že je to ona,“ řekla matka, která později zjistila, že hovor byl podvod a že její dcera byla ve skutečnosti s jeho manželem.

Stejný incident s hlasem AI zažil pár z Kanady, který bohužel přišel o 21,000 XNUMX dolarů od podvodníka na telefonu. Podle Washington Post, podvodník vystupoval jako právník a syn páru pomocí hlasu generovaného AI a řekl, že peníze budou použity na právní poplatky poté, co tvrdil, že syn zabil diplomata při autonehodě.

Kromě hlasů mohou kohokoli oklamat i jiné formy generativních médií produkovaných umělou inteligencí – například falešné obrázky a hluboce falešná videa. I když neexistují žádné současné zprávy, které by ukazovaly, že je podvodníci využívají k finančnímu zisku, jejich účinek může být rozšířený pro širokou veřejnost. Nedávno se na webu objevily obrázky slavných osobností vytvořené umělou inteligencí. Některé zahrnují fotografie zachycující papeže Františka v módní bundě, zatčení bývalého prezidenta Donalda Trumpa a Elona Muska, jak drží za ruku svou rivalku a generální ředitelku GM Mary Barraovou během rande. Mezitím se v březnu 2022 objevilo hluboce falešné video ukrajinského prezidenta Volodymyra Zelenského, které žádá ukrajinské občany, aby se vzdali Rusku.

Přestože materiály byly rychle identifikovány jako falešné, jejich přítomnost nepopiratelně oklamala veřejnost a způsobila dočasný zmatek mnoha. Dokonce i model a autor Chrissy Teigen padl za oběť obrázkům papeže. Účinek takových syntetických médií by však mohl být vážnější, protože AI se neustále vyvíjí, zvláště v dnešní době, kdy stále více technologických společností utrácí miliardy dolarů za vytvoření dokonalého AI. Až přijde ten čas, umělá inteligence by mohla být zneužita k překroucení reality, kterou každý zná, což není nemožné. Ba co víc, mohl by být dokonce použit k ovládání a ovlivňování veřejnosti, což by vedlo k různým politickým, sociálním a morálním problémům po celém světě.

To je patrné na hluboce falešném videu během střednědobých voleb v roce 2018, které ukazuje Baracka Obamu očerňování Donalda Trumpa. Obsah měl původně varovat online svět před nebezpečím falešných zpráv na webu, ale nepříznivě se odrazil. To vyvolalo vztek mezi několika Trumpovými příznivci a neúmyslně poškodilo image jednotlivců použitých v materiálu.

Nyní si představte účinek takových generativních médií, pokud by k tomu byla speciálně navržena ovlivňovat a manipulovat názory a propagovat propagandu mezi veřejností. Výsledky mohou být drastické. To by mohlo konkrétně platit v zemích, kde jsou média a informace cenzurovány restriktivními vládami, jako je Bělorusko, Čína, Egypt, Rusko, Írán, Severní Korea, Turkmenistán, Spojené arabské emiráty, Uganda, Irák, Turecko, Omán a další převážně islámské země. . Někteří se uchylují k používání VPN pro přístup k geograficky uzamčenému obsahu, webům a službám, aby zůstali aktuální. Přístup k VPN však na těchto místech není zcela možný, protože obcházejí internetovou cenzuru a dokonce blokují webové stránky související se službami VPN. Díky tomu si dokážete představit budoucnost takových oblastí s omezeným přístupem k mezinárodním zprávám a jejich vláda, která má moc, jaký online obsah povolit. Poté přidejte možnost bezchybnější umělé inteligence generující obsah v budoucnu a veřejnost by měla obtížněji rozeznat, co je pravda a co ne.

Odvětvové skupiny a technologické společnosti AI jsou již v pohybu, aby načrtly zásady, které budou řídit používání nástrojů AI. Partnerství pro umělou inteligenci například poskytuje doporučení pro instituce a jednotlivce vytvářející syntetické mediální nástroje nebo jednoduše pro ty, kteří takové materiály distribuují. Soukromé společnosti a neziskové organizace však nejsou jediné, které jsou zde potřeba. Zákonodárci také musí vytvořit konkrétní soubor pravidel, která budou muset tvůrci umělé inteligence a koncoví uživatelé dodržovat. Budou však tyto budoucí zákony dostatečně účinné, aby využily sílu AI a zabránily lidem v jejím využívání? To bychom měli brzy vidět.