La influencia de la IA y los deepfakes en la realidad y el futuro

Icono de tiempo de lectura 5 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

maniquí, placa de circuito, cara

En asociación con ExpressVPN

Los recientes avances en inteligencia artificial están generando cambios significativos en la vida de los hombres actuales. Hoy, podemos ver cómo la IA puede realizar sin esfuerzo la codificación, la redacción de ensayos y, sobre todo, la generación de contenido en cuestión de segundos. Estas mismas capacidades impresionantes, sin embargo, son la propia maldición de AI. Según la Proveedores de VPN, muchos están usando IA para generar medios sintéticos para la desinformación, y los deepfakes ahora están comenzando a extenderse como un reguero de pólvora por todo el mundo.

Los expertos han estado experimentando con la IA durante décadas, pero el reciente gran impulso de Microsoft por la tecnología despertó el interés de la industria en invertir más en este tipo de creaciones. Inmediatamente después de la inauguración de su Bing con ChatGPT motor de búsqueda, Google contraatacó utilizando Bardo. Sin embargo, a diferencia de su competidor, Google todavía está implementando un límite estricto para el acceso a la prueba de Bard, y los expertos especulan que se debe al temor de la empresa de lo que la IA puede hacer en las manos equivocadas.

Esto es cierto en el caso de otros productos tecnológicos de IA en desarrollo. Por ejemplo, el modelo de lenguaje VALL-E de Microsoft, que actualmente no está disponible públicamente, puede imitar la voz y las emociones de una persona para sintetizar discursos personalizados. Solo requiere una grabación de tres segundos como mensaje acústico, pero puede producir un mensaje diferente utilizando la voz del orador original.

Si bien el público en general aún no puede acceder a las creaciones mencionadas anteriormente, ya tienen contrapartes ofrecidas por pequeñas empresas tecnológicas. Esto ha permitido que no solo los usuarios comunes, sino también los actores malintencionados, utilicen las herramientas de la forma que deseen. Con esto, ya no sorprende que recientemente hayan aparecido diferentes informes sobre personas engañadas y estafadas con la ayuda de la IA.

Estos informes enfatizaron específicamente el uso de voces generadas por IA que imitan a sus víctimas. En una historia compartida con Business Insider este mes, una madre supuestamente recibió una llamada de alguien que decía ser un secuestrador y exigía un rescate de $50,000 por su hija de 15 años. Al describir la llamada recibida, la madre dijo que era “100%” la voz de su hija.

“Era completamente su voz. Era su inflexión. Era la forma en que ella habría llorado. Nunca dudé ni por un segundo que era ella”, dijo la madre, quien luego descubrió que la llamada fue un engaño y que en realidad su hija estaba con su esposo.

Una pareja de Canadá experimentó el mismo incidente relacionado con la voz de IA, que desafortunadamente perdió $ 21,000 de un estafador en el teléfono. De acuerdo a The Washington Post, el estafador se hizo pasar por un abogado y el hijo de la pareja usando una voz generada por IA y dijo que el dinero se usaría para los honorarios legales después de afirmar que el hijo mató a un diplomático en un accidente automovilístico.

Además de las voces, otras formas de medios generativos producidos por IA también pueden engañar a cualquiera, por ejemplo, imágenes falsas y videos falsos. Si bien no hay informes actuales que muestren que los estafadores los usan para obtener ganancias financieras, su efecto puede ser generalizado para el público en general. Recientemente, algunas imágenes generadas por IA de personalidades famosas circularon en la web. Algunas incluyen fotos que muestran al Papa Francisco con una chaqueta acolchada a la moda, el arresto del expresidente Donald Trump y Elon Musk sosteniendo la mano de su rival y directora ejecutiva de GM, Mary Barra, durante una cita. Mientras tanto, en marzo de 2022, apareció un video falso del presidente ucraniano Volodymyr Zelensky, que pedía a los ciudadanos de Ucrania que se rindieran a Rusia.

Aunque los materiales se identificaron rápidamente como falsos, su presencia indudablemente engañó al público y causó confusión temporal a muchos. Incluso modelo y autor. Chrissy Teigen fue víctima de las fotos del Papa. Sin embargo, el efecto de dichos medios sintéticos podría ser más grave a medida que la IA continúa desarrollándose, especialmente en estos tiempos en que más empresas tecnológicas gastan miles de millones de dólares para crear la IA perfecta. Cuando llegue ese momento, la IA podría explotarse para torcer la realidad que todos conocen, lo cual no es imposible. Aún más, incluso podría usarse para controlar e influir en el público, lo que resulta en diferentes problemas políticos, sociales y morales en todo el mundo.

Esto es evidente en un video falso durante las elecciones intermedias de 2018 que muestra a Barack Obama difamando a Donald Trump. El contenido originalmente tenía la intención de advertir al mundo en línea sobre los peligros de las noticias falsas en la web, pero repercutió negativamente. Esto causó furor entre varios partidarios de Trump y perjudicó sin querer la imagen de las personas utilizadas en el material.

Ahora, imagine el efecto de tales medios generativos si estuvieran diseñados específicamente para influir y manipular la opinión y promover la propaganda al público. Los resultados podrían ser drásticos. Esto podría ser específicamente cierto en países donde los medios y la información están siendo censurados por gobiernos restrictivos, como Bielorrusia, China, Egipto, Rusia, Irán, Corea del Norte, Turkmenistán, Emiratos Árabes Unidos, Uganda, Irak, Turquía, Omán y otros países predominantemente islámicos. . Algunos recurren al uso de VPN para acceder a contenido, sitios web y servicios bloqueados geográficamente para mantenerse actualizados. Sin embargo, el acceso a VPN no es del todo posible en estos lugares, ya que tienen elusión de la censura de Internet e incluso sitios web bloqueados relacionados con los servicios de VPN. Con esto, puede imaginar el futuro de esas áreas con acceso limitado a noticias internacionales y su gobierno teniendo el poder de permitir qué contenido en línea. Luego, agregue la posibilidad de una IA de generación de contenido más impecable en el futuro, y al público le resultará más difícil discernir qué es verdad y qué no.

Los grupos de la industria y las empresas de tecnología de IA ya están en movimiento para delinear políticas que guiarán el uso de herramientas de IA. La Asociación sobre IA, por ejemplo, proporciona recomendaciones para instituciones e individuos que crean herramientas de medios sintéticos o simplemente para aquellos que distribuyen dichos materiales. Sin embargo, las empresas privadas y las organizaciones sin fines de lucro no son las únicas que se necesitan aquí. Los legisladores también deben crear un conjunto concreto de reglas que los desarrolladores de IA y los usuarios finales se verán obligados a observar. No obstante, ¿serán estas leyes futuras lo suficientemente eficientes para aprovechar el poder de la IA y evitar que las personas la exploten? Pronto deberíamos ver eso.

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *