Los deepfakes generados por IA irritaron tanto a Microsoft que está llamando al Congreso a actuar

Microsoft quiere que el Congreso promulgue un estatuto de fraude profundo para establecer un marco legal específico.

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Más información

Notas clave

  • Microsoft insta al Congreso a crear marcos legales para los fraudes y falsificaciones generados por IA.
  • Recomiendan estatutos de fraude deepfake, etiquetado claro del contenido sintético y mejores controles de seguridad.
  • La legislación reciente permite demandar por deepfakes explícitos, y figuras notables como Taylor Swift han sido víctimas de ese tipo de contenido.
Hacker, ilustración profunda

A medida que la inteligencia artificial (IA) se desarrolla a una velocidad vertiginosa, también lo hacen los deepfakes generados por IA. Microsoft, uno de los actores más importantes en la carrera de la IA, ahora está pidiendo al Congreso que aborde esos desafíos.

Brad Smith, vicepresidente y presidente de Microsoft, dice en un reciente artículo de Microsoft sobre el tema entrada del blog que la compañía de Redmond recomienda varias acciones clave. Uno de ellos es promulgar un estatuto de fraude deepfake para establecer un marco legal específico que persiga los fraudes y estafas generados por IA.

“Si bien es imperativo que la industria tecnológica tenga un asiento en la mesa, debe hacerlo con humildad y con tendencia a la acción. Microsoft agradece ideas adicionales de partes interesadas de todo el ecosistema digital para abordar el daño del contenido sintético”, afirma.

La legislación reciente permite a las víctimas de deepfakes explícitos no consensuados demandar a sus creadores, pero Microsoft cree que se adoptarán medidas adicionales, como etiquetado de contenido sintético-similar a "Hecho con IA" de Meta– y mejores controles de seguridad para los productos de IA son esenciales para proteger al público.

A principios de este año, un nuevo proyecto de ley de los senadores Durbin, Graham y Hawley permitiría a las víctimas de deepfakes sexualmente explícitos demandar a sus creadores y distribuidores. Clasifica estos deepfakes como “falsificaciones digitales” y establece un plazo de prescripción de 10 años.

El aumento de los deepfakes generados por IA es realmente aterrador, especialmente este año, ya que casi la mayoría de los países están celebración de elecciones. Las poblaciones vulnerables, como las personas mayores y los niños, también son algunas de las víctimas más propensas: Internet Watch Foundation, una organización británica contra la pornografía infantil, informó sobre un aumento de la IA del porno deepfakes en los últimos meses.

cantante famoso Taylor Swift También fue víctima de deepfakes generados por IA a principios de este año, más específicamente en X (anteriormente Twitter). La plataforma prohibió temporalmente las búsquedas de Taylor Swift después de que circularan imágenes explícitas de ella. Estas imágenes se crearon utilizando la herramienta Diseñadores de Microsoft y se compartieron en un grupo de Telegram.

Foro de usuarios

mensajes de 0