Así quiere Microsoft luchar contra los contenidos extremistas
2 minuto. leer
Publicado el
Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más
El ataque terrorista en la mezquita de Al Noor en Christchurch se cobró la vida de 50 personas inocentes. El supremacista blanco pudo transmitir en vivo todo el evento en las redes sociales, lo que generó controversias y generó muchas preguntas sobre la política de moderación de las redes sociales.
Aunque no es tan popular como Facebook, Twitter y YouTube, Microsoft reveló que una pequeña parte de su base de usuarios también usó sus plataformas para difundir el infame video del tiroteo. Y aunque la compañía dijo que tomó medidas inmediatas y no se demoró en eliminar el video, Microsoft enfatizó que necesitaría que el consorcio tecnológico se uniera para encontrar una mejor solución.
“En última instancia, necesitamos desarrollar un enfoque en toda la industria que sea basado en principios, integral y efectivo. La mejor manera de lograr esto es tomar medidas nuevas y concretas rápidamente que se basen en lo que ya existe”, escribió el presidente de Microsoft, Brad Smith, en un comunicado. del blog.
Brad Smith, de Microsoft, presentó varias ideas para poner fin a la difusión de contenido extremista. Brad sugiere que la industria de la tecnología debería trabajar en conjunto para avanzar en tecnologías como PhotoDNA, que ayuda a aplicar e identificar contenido violento conocido. Además, las empresas deben trabajar juntas para identificar y capturar versiones editadas del mismo contenido.
Además, Brad quiere que el sector cree un protocolo de “gran evento”, en el que las empresas de tecnología compartirán información de manera más rápida y directa, lo que a su vez ayudará a cada plataforma y servicio a tomar acciones rápidamente.
Brad luego habló sobre cómo la tecnología no puede ser una solución para todo y que debemos tratar a los demás con respeto y dignidad y respetar las diferencias de los demás.
Microsoft’s statement came days after Facebook admitted that its AI isn’t capable enough to spot extremist content in a live stream, citing the amount of such content to be too less to train its AI.