I deepfake generati dall’intelligenza artificiale hanno irritato così tanto Microsoft che sta chiamando il Congresso ad agire
Microsoft vuole che il Congresso approvi uno statuto sulle frodi deepfake per stabilire un quadro giuridico specifico.
2 minuto. leggere
Edizione del
Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più
Note chiave
- Microsoft esorta il Congresso a creare quadri giuridici per i deepfake e le frodi generati dall’intelligenza artificiale.
- Raccomandano statuti contro le frodi deepfake, un’etichettatura chiara dei contenuti sintetici e migliori controlli di sicurezza.
- La legislazione recente consente di denunciare per deepfake espliciti e figure importanti come Taylor Swift sono cadute vittime di tali contenuti.
Man mano che l’intelligenza artificiale (AI) si sviluppa a una velocità vertiginosa, lo stesso vale per i deepfake generati dall’intelligenza artificiale. Microsoft, essendo uno dei maggiori attori nella corsa all’intelligenza artificiale, sta ora invitando il Congresso ad affrontare tali sfide.
Brad Smith, vicepresidente e presidente di Microsoft, afferma in un recente Microsoft on the Issue post sul blog che la società di Redmond raccomanda diverse azioni chiave. Uno di questi è quello di emanare uno statuto sulle frodi deepfake per stabilire un quadro giuridico specifico che persegua le frodi e le truffe generate dall’intelligenza artificiale.
“Anche se è fondamentale che l'industria tecnologica abbia un posto al tavolo, deve farlo con umiltà e con una propensione all'azione. Microsoft accoglie con favore ulteriori idee da parte delle parti interessate in tutto l’ecosistema digitale per affrontare i danni derivanti dai contenuti sintetici”, afferma.
La legislazione recente consente alle vittime di deepfake espliciti non consensuali di citare in giudizio i propri creatori, ma Microsoft ritiene che ulteriori misure, come chiare etichettatura dei contenuti sintetici-simile a “Made with AI” di Meta– e migliori controlli di sicurezza per i prodotti di intelligenza artificiale sono essenziali per proteggere il pubblico.
All'inizio di quest'anno, un nuovo disegno di legge dei senatori Durbin, Graham e Hawley consentirebbe alle vittime di deepfake sessualmente espliciti di citare in giudizio i loro creatori e distributori. Classifica questi deepfake come “falsificazioni digitali” e stabilisce un termine di prescrizione di 10 anni.
L’aumento dei deepfake generati dall’intelligenza artificiale è davvero terrificante, soprattutto quest’anno, come lo è quasi la maggior parte dei paesi tenere le elezioni. Anche le popolazioni vulnerabili come gli anziani e i bambini sono alcune delle vittime più esposte: Internet Watch Foundation, un'organizzazione britannica contro la pornografia infantile, ha segnalato un aumento dell’intelligenza artificiale nel porno deepfake negli ultimi mesi.
Cantante famoso Taylor Swift è stato anche vittima di deepfake generati dall'intelligenza artificiale all'inizio di quest'anno, più specificamente su X (ex Twitter). La piattaforma ha temporaneamente vietato le ricerche di Taylor Swift dopo che sono circolate esplicite immagini deepfake di lei. Queste immagini sono state create utilizzando lo strumento Designers di Microsoft e condivise in un gruppo Telegram.
Forum degli utenti
0 messaggi