Influența inteligenței artificiale și a deepfakes-urilor asupra realității și viitorului

Pictograma timp de citire 5 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Află mai multe

manechin, placa de circuit, fata

În parteneriat cu ExpressVPN

Progresele recente în inteligența artificială fac schimbări semnificative în viața oamenilor actuali. Astăzi, putem vedea cum AI poate realiza fără efort codificare, scriere de eseuri și, mai ales, generarea de conținut în câteva secunde. Aceste capacități impresionante, totuși, sunt propriul blestem al AI. În conformitate cu Furnizori VPN, mulți folosesc inteligența artificială pentru a genera medii sintetice pentru dezinformare, iar deepfake-urile încep acum să se răspândească ca un incendiu pe tot globul.

Experții experimentează cu AI de zeci de ani, dar recentul impuls mare al Microsoft pentru tehnologie a stârnit interesul industriei de a investi mai mult în astfel de creații. Imediat după dezvăluirea acestuia Bing bazat pe ChatGPT motor de căutare, Google a răspuns folosind Bard. Spre deosebire de concurentul său, Google încă implementează o limită strictă pentru accesul la testul Bard, experții speculând că aceasta se datorează fricii companiei de ceea ce poate face AI în mâinile greșite.

Acest lucru este valabil și în cazul altor produse tehnologice AI aflate în dezvoltare. De exemplu, modelul de limbaj VALL-E al Microsoft, care în prezent este indisponibil public, poate imita vocea și emoțiile unei persoane pentru a sintetiza discursuri personalizate. Necesită doar o înregistrare de trei secunde ca indicație acustică, dar poate produce un mesaj diferit folosind vocea difuzorului original.

În timp ce publicul larg încă nu poate accesa creațiile menționate mai sus, acesta are deja omologi oferite de firmele mici de tehnologie. Acest lucru a permis nu doar utilizatorilor obișnuiți, ci și actorilor rău intenționați să folosească instrumentele în orice mod doresc. Cu aceasta, nu mai este surprinzător că au apărut recent diferite rapoarte despre oameni păcăliți și înșelați cu ajutorul AI.

Aceste rapoarte au subliniat în mod special utilizarea vocilor generate de AI care imită victimele lor. Într-o poveste împărtășită cu Business Insider În această lună, o mamă ar fi primit un apel de la cineva care pretindea că este un răpitor, cerând o răscumpărare de 50,000 de dolari pentru fiica ei de 15 ani. Descriind apelul primit, mama a spus că este „100%” vocea fiicei sale.

„A fost complet vocea ei. A fost inflexiunea ei. Așa ar fi plâns ea. Nu m-am îndoit nicio secundă că a fost ea”, a spus mama, care a descoperit ulterior că apelul a fost o înșelăciune și că fiica ei era de fapt cu soțul său.

Același incident care implică vocea AI a fost experimentat de un cuplu din Canada, care, din păcate, a pierdut 21,000 de dolari de la un escroc la telefon. Conform Washington Post, escrocul s-a pozat în avocat și fiul cuplului folosind o voce generată de inteligență artificială și a spus că banii vor fi folosiți pentru taxele legale după ce a susținut că fiul a ucis un diplomat într-un accident de mașină.

În afară de voci, alte forme de media generative produse de AI pot păcăli pe oricine, de exemplu, imagini false și videoclipuri deepfake. Deși nu există rapoarte actuale care să arate că escrocii le folosesc pentru câștiguri financiare, efectul lor poate fi larg răspândit pentru publicul larg. Recent, pe web au circulat câteva imagini generate de AI cu personalități celebre. Unele includ fotografii care îl arată pe Papa Francisc într-o jachetă puf la modă, fostul președinte Donald Trump fiind arestat și Elon Musk ținând mâna rivalului său și director general al GM, Mary Barra, în timpul unei întâlniri. Între timp, în martie 2022, a apărut un videoclip deepfake al președintelui ucrainean Volodymyr Zelensky, în care le-a cerut cetățenilor ucraineni să se predea Rusiei.

Deși materialele au fost identificate rapid ca fiind false, prezența lor a păcălit incontestabil publicul și a provocat confuzie temporară pentru mulți. Chiar și model și autor Chrissy Teigen a căzut victimă imaginilor papei. Cu toate acestea, efectul unor astfel de medii sintetice ar putea fi mai serios pe măsură ce AI continuă să se dezvolte, mai ales în aceste vremuri, în care mai multe companii tehnologice cheltuiesc miliarde de dolari pentru a crea creația perfectă de AI. Când va veni acel moment, inteligența artificială ar putea fi exploatată pentru a răsturna realitatea pe care toată lumea o cunoaște, ceea ce nu este imposibil. Mai mult, ar putea fi folosit chiar pentru a controla și influența publicul, rezultând diferite probleme politice, sociale și morale de pe tot globul.

Acest lucru este evident într-un videoclip deepfake din timpul alegerilor intermediare din 2018, în care Barack Obama îl calomniază pe Donald Trump. Conținutul a fost inițial destinat să avertizeze lumea online despre pericolele știrilor false de pe web, dar a revenit negativ. Acest lucru a provocat furie în rândul mai multor susținători ai lui Trump și a afectat neintenționat imaginea persoanelor folosite în material.

Acum, imaginați-vă efectul unor astfel de medii generative dacă ar fi fost special concepute pentru aceasta influențează și manipulează opinia și promovează propaganda către public. Rezultatele ar putea fi drastice. Acest lucru ar putea fi valabil în special în țările în care mass-media și informațiile sunt cenzurate de guverne restrictive, cum ar fi Belarus, China, Egipt, Rusia, Iran, Coreea de Nord, Turkmenistan, Emiratele Arabe Unite, Uganda, Irak, Turcia, Oman și alte țări predominant islamice. . Unii recurg la utilizarea VPN-urilor pentru a accesa conținut, site-uri web și servicii blocate din punct de vedere geografic pentru a rămâne la curent. Cu toate acestea, accesul VPN nu este în întregime posibil în aceste locuri, deoarece au ocolire a cenzurii internetului și chiar au blocat site-uri web legate de serviciile VPN. Cu aceasta, vă puteți imagina viitorul unor astfel de zone cu acces limitat la știrile internaționale și guvernul lor având puterea de a permite conținutul online. Apoi, adăugați posibilitatea unei IA care să genereze conținut mai impecabil în viitor, iar publicului ar trebui să fie mai dificil să discerne ce este adevărat și ce nu.

Grupurile industriale și companiile de tehnologie AI sunt deja în mișcare pentru a contura politici care vor ghida utilizarea instrumentelor AI. Parteneriatul pentru IA, de exemplu, oferă recomandări pentru instituțiile și persoanele care construiesc instrumente media sintetice sau pur și simplu pentru cei care distribuie astfel de materiale. Cu toate acestea, companiile private și organizațiile non-profit nu sunt singurele necesare aici. Legiuitorii trebuie, de asemenea, să creeze un set concret de reguli pe care constructorii de AI și utilizatorii finali vor fi împinși să le respecte. Cu toate acestea, vor fi aceste legi viitoare suficient de eficiente pentru a valorifica puterea AI și a împiedica oamenii să o exploateze? Ar trebui să vedem asta în curând.

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *