Ex empleado de Facebook dice que el equipo de seguridad infantil está en desorden debido a los planes de cifrado de extremo a extremo

Icono de tiempo de lectura 3 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Informamos recientemente que Facebook / Meta ha pospuesto sus planes de cifrado de extremo a extremo (E2EE) en Messenger e Instagram hasta 2023, ya que la empresa trabaja para resolver problemas de seguridad infantil.

Muchos críticos han notado que WhatsApp ya usa E2EE y sintieron que las demoras no estaban justificadas.

Hoy David Theil, antiguo empleado de Facebook en su división de Seguridad Infantil y actual Director de tecnología del Observatorio de Internet de Stanford, publicó un hilo en Twitter reprendiendo tanto a Facebook como a sus críticos por el impulso hacia E2EE en el servicio.

Señaló que los motivos de Facebook para impulsar la E2EE estaban lejos de ser puros y tenían más que ver con "prevención de acciones antimonopolio, menor interacción con LE (aplicación de la ley), equipos de seguridad significativamente reducidos y buen marketing."

En resumen, al ocultar la comunicación en Facebook al propio Facebook, la empresa sería menos responsable del contenido que transmite.

Theil dijo que el plan se anunció sin ninguna hoja de ruta para implementarlo, y con "una cronología absurdamente acelerada,”Antes de que Facebook incluso decidiera cómo integrar sus 3 plataformas de mensajería (WhatsApp, Messenger e Instagram).

Lo peor fue que las pruebas mostraron que cuando Facebook no inspeccionaba el contenido de los mensajes (como sería el caso de E2EE), solo podían detectar "preparación infantil, sextorsión y distribución de CSAM”10% más que si realmente miraran el contenido de los mensajes, lo que significa que la mayoría de los daños no serían detectados.

Sin un plan claro para abordar esto, y una actitud de “tengo que romper algunos huevos” por parte de la gerencia, Theil dice que muchos miembros prominentes de los equipos de seguridad infantil renunciaron.

Theil dijo que la única forma de mantener E2EE y aún proteger a los niños sería la inspección del lado del cliente, como Apple implementó recientemente, pero, como Apple descubrió, esto era un anatema para la mayoría de los investigadores de seguridad y la gente en general.

Theil señala que WhatsApp, por supuesto, ya usaba E2EE, pero debido a la naturaleza 1: 1 de la red, no proporcionó acceso inmediato a los niños por parte de los depredadores, a diferencia de Facebook, que fue diseñado para presentar a las personas a nuevos amigos y expandir sus redes sociales. la red.

Theil explicó:

WhatsApp no ​​recomienda a las personas con las que entablar amistad e interactuar. No alberga grupos secretos de tamaño ilimitado. No proporciona una búsqueda global de todos los usuarios. No agrupa a las personas por ubicación o instituciones como las escuelas secundarias. Mientras que Facebook intenta tomar las redes sociales existentes, fusionarlas y construir nuevas. Esto ha llevado a situaciones tremendamente inapropiadas (incluida la recomendación literal de las víctimas a los abusadores), especialmente cuando se combina con la sincronización de contactos y el seguimiento de píxeles fuera del sitio.

Incluso entonces, se echaron de menos muchos abusos en la plataforma.

Theil señaló que hasta que las redes sociales en sí mismas puedan estar inherentemente seguras de los depredadores de niños, E2EE no debería agregarse al sistema.

Lea su hilo completo esta página.

Más sobre los temas: Seguridad infantil, Facebook, Meta

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *