La organización británica contra la pornografía infantil informa un aumento en los deepfakes de IA en la pornografía en los últimos meses
La Internet Watch Foundation (IWF) existe desde hace casi tres décadas.
2 minuto. leer
Publicado el
Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Más información
Notas clave
- La IWF dice que los deepfakes pornográficos con IA se están produciendo a “un ritmo alarmante” en los últimos meses.
- La organización contra la pornografía infantil con sede en el Reino Unido revela su hallazgo en un informe publicado recientemente en julio de 2024.
- Apple también enfrenta controversias por no denunciar material de abuso sexual infantil de IA.
La Internet Watch Foundation (IWF), una organización contra la pornografía infantil con sede en el Reino Unido, revela una tendencia inquietante de material de abuso sexual infantil generado por IA (AI CSAM), o los llamados deepfakes de IA pornográficos.
El sistema Informe 2024 de julio, publicado el lunes, dice que dicho contenido se está produciendo a "un ritmo alarmante". Entre marzo y abril de 2024, los investigadores descubrieron nueve nuevos vídeos falsos de abuso infantil en un foro de la web oscura, que no estaban presentes en una investigación anterior fechada. Octubre de 2023.
Además, el estudio También encontró más de 12,000 nuevas imágenes generadas por IA publicadas en un solo mes, de las cuales más de 3,500 se consideraron criminales y representan abusos graves. Esta tecnología, en particular los modelos LoRA, permite a los delincuentes crear imágenes muy realistas de víctimas reales y falsas.
“Desafortunadamente, la legislación del Reino Unido se está quedando atrás de los avances en tecnología de inteligencia artificial. Si bien el CSAM de IA es ilegal y la IWF puede tomar medidas para eliminarlo, no ocurre lo mismo con los modelos de IA ajustados a imágenes de abuso sexual infantil. La herramienta para crear imágenes de IA de Olivia sigue siendo legal en el Reino Unido”, se lee en el informe.
El informe anterior de octubre de 2023 encontró más de 20,200 imágenes de abuso sexual infantil generadas por IA publicadas en un foro de la web oscura en un mes. De ellas, se evaluaron más de 11,100, de las cuales más de 2,500 se clasificaron como pseudofotografías criminales y aproximadamente 400 como imágenes prohibidas.
La IFW del Reino Unido ha estado funcionando desde hace casi tres décadas. En septiembre de 2022, se lanzaron IFW y Pornhub el chatbot "repensar" para disuadir a los usuarios que buscan material de abuso sexual infantil, involucrando a más de 173,000 usuarios en su primer mes y dirigiéndolos a servicios de apoyo.
El informe en sí surgió en medio de la reciente controversia de Apple sobre subnotificación de CSAM en sus plataformas, en comparación con otros gigantes tecnológicos como Meta y Google.
La Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido dice que iCloud, iMessage y Facetime de Apple estuvieron involucrados en más casos de CSAM en Inglaterra y Gales de los que el gigante tecnológico ha informado a nivel mundial. Apple tenía planes de incorporar una IA para buscar dicho contenido en iCloud, pero debido a preocupaciones sobre la privacidad de la recopilación de datos, el plan se abandonó.
Foro de usuarios
mensajes de 0