L'influenza dell'intelligenza artificiale e dei deepfake sulla realtà e sul futuro

Icona del tempo di lettura 5 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

manichino, circuito stampato, viso

In collaborazione con ExpressVPN

I recenti progressi nell'intelligenza artificiale stanno apportando cambiamenti significativi alla vita degli uomini di oggi. Oggi possiamo vedere come l'intelligenza artificiale può eseguire facilmente la codifica, la scrittura di saggi e, soprattutto, la generazione di contenuti in pochi secondi. Queste stesse straordinarie capacità, tuttavia, sono la stessa maledizione dell'IA. Secondo Provider VPN, molti stanno usando l'intelligenza artificiale per generare media sintetici per la disinformazione e i deepfake stanno ora iniziando a diffondersi a macchia d'olio in tutto il mondo.

Gli esperti hanno sperimentato l'intelligenza artificiale per decenni, ma la recente grande spinta di Microsoft per la tecnologia ha suscitato l'interesse del settore a investire di più in tali creazioni. Subito dopo la presentazione del suo Bing basato su ChatGPT motore di ricerca, Google ha reagito utilizzando Vate. A differenza del suo concorrente, tuttavia, Google sta ancora implementando un limite rigoroso per l'accesso ai test di Bard, con gli esperti che ipotizzano che sia dovuto alla paura dell'azienda di ciò che l'IA può fare nelle mani sbagliate.

Questo è vero nel caso di altri prodotti tecnologici AI in fase di sviluppo. Ad esempio, il modello linguistico VALL-E di Microsoft, attualmente non disponibile al pubblico, può imitare la voce e le emozioni di una persona per sintetizzare discorsi personalizzati. Richiede solo una registrazione di tre secondi come suggerimento acustico, ma può produrre un messaggio diverso utilizzando la voce dell'oratore originale.

Sebbene il pubblico in generale non possa ancora accedere alle creazioni sopra menzionate, hanno già controparti offerte da piccole aziende tecnologiche. Ciò ha consentito non solo agli utenti ordinari, ma anche agli attori malintenzionati di utilizzare gli strumenti nel modo desiderato. Con questo, non sorprende più che recentemente siano emersi diversi rapporti su persone che vengono ingannate e truffate con l'aiuto dell'IA.

Questi rapporti sottolineavano specificamente l'uso di voci generate dall'intelligenza artificiale che imitavano le loro vittime. In una storia condivisa con Business Insider questo mese, secondo quanto riferito, una madre ha ricevuto una telefonata da qualcuno che affermava di essere un rapitore chiedendo un riscatto di $ 50,000 per la figlia di 15 anni. Descrivendo la telefonata ricevuta, la madre ha affermato che si trattava “al 100%” della voce della figlia.

“Era completamente la sua voce. Era la sua inflessione. Era il modo in cui avrebbe pianto. Non ho mai dubitato per un secondo che fosse lei", ha detto la madre, che in seguito ha scoperto che la chiamata era un inganno e che sua figlia era effettivamente con suo marito.

Lo stesso incidente che ha coinvolto la voce AI è stato vissuto da una coppia canadese, che purtroppo ha perso $ 21,000 a causa di un truffatore al telefono. Secondo Il Washington Post, il truffatore si è presentato come un avvocato e il figlio della coppia usando una voce generata dall'intelligenza artificiale e ha detto che il denaro sarebbe stato utilizzato per le spese legali dopo aver affermato che il figlio ha ucciso un diplomatico in un incidente d'auto.

A parte le voci, anche altre forme di media generativi prodotti dall'intelligenza artificiale possono ingannare chiunque, ad esempio immagini false e video deepfake. Sebbene non siano presenti rapporti che mostrino i truffatori che li utilizzano a scopo di lucro, il loro effetto può essere diffuso per il pubblico in generale. Di recente sono circolate sul web alcune immagini generate dall'intelligenza artificiale di personaggi famosi. Alcuni includono foto che mostrano Papa Francesco in un piumino alla moda, l'ex presidente Donald Trump che viene arrestato ed Elon Musk che tiene la mano della sua rivale e CEO di GM Mary Barra durante un appuntamento. Nel frattempo, nel marzo 2022, è emerso un video deepfake del presidente ucraino Volodymyr Zelensky, che chiedeva ai cittadini ucraini di arrendersi alla Russia.

Sebbene i materiali siano stati rapidamente identificati come falsi, la loro presenza ha innegabilmente ingannato il pubblico e causato confusione temporanea a molti. Anche modello e autore Chrissy Teigen cadde vittima delle immagini del papa. Tuttavia, l'effetto di tali media sintetici potrebbe essere più grave man mano che l'intelligenza artificiale continua a svilupparsi, specialmente in questi tempi con più aziende tecnologiche che spendono miliardi di dollari per modellare la perfetta creazione di intelligenza artificiale. Quando arriverà quel momento, l'intelligenza artificiale potrebbe essere sfruttata per distorcere la realtà che tutti conoscono, il che non è impossibile. Inoltre, potrebbe persino essere utilizzato per controllare e influenzare il pubblico, con conseguenti diversi problemi politici, sociali e morali in tutto il mondo.

Ciò è evidente in un video deepfake durante le elezioni di medio termine del 2018 che mostra Barack Obama che diffama Donald Trump. Il contenuto era originariamente destinato ad avvertire il mondo online sui pericoli delle notizie false sul web, ma ha avuto un rimbalzo negativo. Ciò ha causato rabbia tra diversi sostenitori di Trump e ha danneggiato involontariamente l'immagine delle persone utilizzate nel materiale.

Ora, immagina l'effetto di tali media generativi se fossero specificamente progettati per influenzare e manipolare le opinioni e promuovere la propaganda al pubblico. I risultati potrebbero essere drastici. Ciò potrebbe essere vero in particolare nei paesi in cui i media e le informazioni vengono censurati da governi restrittivi, come Bielorussia, Cina, Egitto, Russia, Iran, Corea del Nord, Turkmenistan, Emirati Arabi Uniti, Uganda, Iraq, Turchia, Oman e altri paesi prevalentemente islamici . Alcuni ricorrono all'utilizzo di VPN per accedere a contenuti, siti Web e servizi geograficamente bloccati per rimanere aggiornati. Tuttavia, l'accesso VPN non è del tutto possibile in questi luoghi poiché hanno l'elusione della censura di Internet e persino i siti Web bloccati relativi ai servizi VPN. Con questo, puoi immaginare il futuro di tali aree con accesso limitato alle notizie internazionali e il loro governo che ha il potere di quali contenuti online consentire. Quindi, aggiungi la possibilità di un'IA generatrice di contenuti più impeccabile in futuro e il pubblico dovrebbe trovare più difficile discernere cosa è vero e cosa no.

I gruppi di settore e le società tecnologiche di intelligenza artificiale si stanno già muovendo per delineare le politiche che guideranno l'uso degli strumenti di intelligenza artificiale. Il partenariato sull'intelligenza artificiale, ad esempio, fornisce raccomandazioni per istituzioni e individui che costruiscono strumenti di media sintetici o semplicemente per coloro che distribuiscono tali materiali. Tuttavia, le aziende private e le organizzazioni senza scopo di lucro non sono le uniche necessarie qui. I legislatori devono anche creare un insieme concreto di regole che i costruttori di intelligenza artificiale e gli utenti finali saranno spinti a rispettare. Tuttavia, queste leggi future saranno abbastanza efficienti da sfruttare il potere dell'IA e impedire alle persone di sfruttarlo? Dovremmo vederlo presto.

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *