Cómo los deepfake pueden generar inestabilidad internacional

Se teme que esta clase de creaciones puedan condicionar una corriente de opinión o de voto a escala masiva a partir de documentos falsos.

Pedro Fernaud

Periodista

Guardar

Concepto de inestabilidad internacional.
Concepto de inestabilidad internacional.

Algunas personas que contemplamos de manera online son falsas, son avatares que contribuyen a la propagación de bulos. Por eso es necesario saber cómo reconocer esa clase de engaños y las razones de su creciente empleo, a menudo con fines espurios.

En el contexto del hinduismo, un avatar es la encarnación terrestre de un dios. El término avatar proviene del sánscrito avatâra que significa descenso, en especial el descenso de un ser divino a la Tierra, mientras que en Internet y otras tecnologías de comunicación modernas, se denomina avatar a una representación gráfica que se vincula a un usuario en particular para su identificación en un videojuego o un foro de internet.

Y en un mundo donde los negocios realizados vía Internet cotizan al alza, los avatares han adquirido una importancia creciente. Cada vez más, las empresas presentan sus productos y servicios a través de medios digitales. Para conocer cómo son recibidos estos, se están diseñando esos avatares. En esas figuras virtuales aparecen representadas diferentes edades, géneros, culturas, estatus y habilidades profesionales, así como capacidades adquisitivas y personalidades.

Personalidades virtuales que aspiran a modelar nuestra representación del mundo

El grado de verismo de esos personajes está creciendo gracias a las, cada vez más, sofisticadas herramientas de inteligencia artificial. De manera que también se están creando personajes virtuales que emulan a actores, comunicadores, políticos o personas del ámbito de la celebridad de la vida real. O que crean una personalidad de la nada y generan contenidos destinados a cultivar un determinado clima de opinión. Se trata de herramientas cada vez más complejas y verosímiles, que influyen de manera importante en nuestra percepción y representación del mundo. Por eso es tan importante saber cómo operan para así discernir qué hay de real, y qué de falso e intereses creados, en cada una de ellas.

Qué son los deepfake y cómo pueden favorecer intereses políticos

En los últimos tiempos se han popularizado una serie de vídeos, que se están difundiendo a gran escala por Internet, en los que algunos famosos salen diciendo cosas que en realidad nunca dijeron. Se trata de los deepfake. Esta palabra un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo, una de las ramas más interesantes de la inteligencia artificial. Se trata de una imagen o un audio generado que imita la apariencia y el sonido de una persona. Estos medios sintéticos son tan convincentes que pueden engañar tanto a las personas como a los algoritmos. Son imágenes, en suma, que nos transmiten la percepción de que estamos viendo algo real, cuando en realidad se trata de una elaborada simulación de lo real, ideada a partir de complejos algoritmos. Gracias a esta técnica se puede, por ejemplo, superponer el rostro de una persona sobre el de otra para hacerle decir cosas que nunca ha expresado en la vida real.

En 2019, los efectos nocivos de esta tendencia se pudieron apreciar en el ámbito de la pornografía. En ese sector, algunos piratas informáticos replicaron el rostro de algunas actrices famosas, como Natalie Portman o Emma Watson, para que su cara formara parte de producciones pornográficas que ya existían. Los progresos en ese arte del engaño son notables; tanto que ya se están popularizando a gran escala en las redes sociales.

Cómo TikTok contribuye a la difusión de los deepfake

Según recoge el diario El País, en la red social de TikTok triunfan cuentas ‘irreales’ de celebridades como Tom Cruise, Keanu Reeves y Jason Statham, que acumulan millones de seguidores. Los parecidos son muy logrados entre la persona real y su avatar.

El secreto de esa verosimilitud es una compleja mezcla de inteligencia artificial y actores que imitan con gran realismo, como sucede por ejemplo con la cuenta ficticia de Tom Cruise (3,7 millones de usuarios), que está producida por Chris Ume, un técnico belga experto en deepfakes y efectos visuales, y Miles Fisher, imitador del actor estadounidense. Gracias a esa mezcla de factores, logran que sus vídeos ofrezcan un grado de verosimilitud muy alto.

El caso es que el uso de los avatares en el mundo online está generando más de un fraude y dilema ético. El temor que despiertan esa clase de creaciones es que puedan condicionar una corriente de opinión o de voto a escala masiva a partir de documentos falsos, que responden a intereses muy concretos de determinados actores políticos o empresariales, como ya está sucediendo.

Hablamos de una realidad alternativa de simulación en la que China parece estar empleando numerosos recursos. En esa línea, el diario Boston Globe afirma que el año pasado China empleó varias cuentas de bot (programa informático que realiza tareas automatizadas específicas y repetitivas en una red) para generar contenidos afines a sus intereses, a través de vídeos deepfake. Estas cuentas de bots  pro-China supuestamente difundieron videos falsos en Facebook y Twitter, en el primer caso conocido de tecnología de video deepfake empleada para crear personas ficticias como parte de una campaña de información alineada con un estado.

“Esta es la primera vez que vemos esta clase de engaños de manera tan verificable en Internet”, señala Jack Stubbs, vicepresidente de inteligencia de Graphika, una compañía de investigación que estudia la desinformación. El caso es que Graphika descubrió la campaña a favor de China, que parecía tener la intención de promover los intereses del Partido Comunista chino y socavar la credibilidad y el prestigio de los Estados Unidos para la audiencia de habla inglesa. En uno de los vídeos, por ejemplo, se habla de una “vergonzosa inacción de Estados Unidos contra la violencia armada" y en otro se celebra el papel de China en las relaciones geopolíticas en una cumbre internacional. La información se difunde mediante vídeos de avatares cuya credibilidad capilar o sincronización de cara y voz deja bastante que desear.

Claves de la evolución de la técnica deepfake en la última década

No obstante, la tecnología deepfake ha progresado exponencialmente durante el último decenio. Tanto es así que hablamos de una técnica que tiene la capacidad de crear títeres digitales parlantes. Su principal referencia es Ian Goodfellow, informático, ingeniero y ejecutivo estadounidense conocido por su trabajo en redes neuronales artificiales y aprendizaje profundo.

Fue en 2014 cuando Goodfellow ideó un código sustentado en las investigaciones publicadas en la década de los 90 por Jüger Schmindhuber acerca de la curiosidad artificial, y el aprendizaje de Turing, basado en la capacidad de una máquina de exhibir un comportamiento similar al de un ser humano.  Se trataba de programar y estimular la capacidad de imaginación de las máquinas. Y a fe que lo consiguió. Hoy día la aplicación de esta tecnología abarca un número muy estimable de ámbitos y aplicaciones, como la posibilidad de replicar y reemplazar a actores famosos en el cine, como por ejemplo la posibilidad de ver a un Harrison Ford joven en algunas precuelas que ha elaborado Disney recientemente sobre la “Guerra de las Galaxias”.

Los principales peligros de los deepfake falsos

La posible manipulación de imágenes con contenido político preocupa mucho a los gobernantes de las principales naciones del mundo. Con esta técnica, se vislumbra un escenario en el que podrían condicionarse resultados electorales para determinar el futuro de un país o de la esfera global de las relaciones internacionales. En Estados Unidos, por ejemplo, han comenzado a implementar legislación para proteger a sus ciudadanos de estos ataques. Por su parte, China ha sido el primer país del mundo en regular los deepfakes. Desde el pasado 10 de enero, el gigante asiático gestiona un uso ético de esa tecnología a través de la Administración del Ciberespacio de China (CAC). La CAC se encarga de supervisar al detalle la publicación de deepfakes, con el objetivo de limitar su viralización y las suplantaciones de identidad. Entre los puntos clave de la nueva normativa china se encuentra la concesión de consentimiento para el uso de imágenes por parte del usuario y la prohibición de tecnologías de este tipo para la difusión de noticias.

Otro requisito recogido por la legislación del país oriental, según informa la agencia Reuters, es la autenticación de cada deepfake con una identidad real. Además, China está añadiendo una notificación que avisa a los usuarios cuando esas imágenes han sido editadas o modificadas. En ese sentido, la CAC ha advertido que serán censurados todos los contenidos que atenten con la seguridad nacional (o dañen la imagen) del país asiático.

Claves para identificar un deepfake

Según IEBS Business School, hay una serie de pautas que ayudan a identificar que un vídeo ha sido elaborado mediante la técnica de deepfake. A saber:

  • Si el avatar parpadea menos que una persona normal, ya que los algoritmos no son capaces de parpadear a la misma velocidad que un ser humano.
  • Apreciar si hay signos de sustitución facial en la cara y cuello.
  • La sustitución facial también se percibe en un desenfoque en el interior de la boca.
  • El vídeo adolece de sincronización con el sonido.
  • Por último, la fuente de la grabación es esencial para verificar su veracidad. Si el contexto es poco confiable, probablemente se trata de un caso de contenido ultrafalso.

Ejemplos de los peligros y dilemas del deepfake

Los deepfakes son, en resumen, vídeos falsos manipulados con la ayuda de inteligencia artificial, que tratan de persuadirnos o engañarnos al mostrar que alguien hace o dice algo que en realidad nunca hizo. Son pues un material de gran potencial en el ámbito político para generar confusión que genere un engaño inducido en una opinión, hasta el punto de que puede condicionar miles de votos y con ello el resultado de las elecciones.

Uno de los casos más famosos que ilustran los peligros del deepfake tuvo como protagonista al ex-presidente de Estados Unidos, Barack Obama.

El actor Jordan Peele protagonizó un video para BuzzFeed, una empresa de medios de comunicación de Internet estadounidense, en el cual se usó esta tecnología para sustituir su rostro por el de Obama. En el video se aprecia como el expresidente dice, “el presidente Trump es un completo imbécil”. Aunque al principio de la grabación se advierte de que es falsa, el realismo de las imágenes impresiona. Por su parte, el actor estadounidense dijo haber contribuido al vídeo para concienciar sobre el deepfake y sus posibles consecuencias.

Cómo genera un deepfake en 15 minutos.

Otros casos de la esfera política son menos burdos y generan un debate ético sobre las fronteras de esa tecnología. Es el caso de Manoj Tiwari, un político indio que aspiraba en 2020 a la Asamblea Legislativa en Delhi, la capital de la India.

El caso es que este político elaboró un vídeo de 44 segundos condensando la esencia de su programa político. Después, empleó las posibilidades de la inteligencia artificial para que su mensaje llegara a su electorado en inglés y en inglés y el dialecto hindi Harayanvi. El político no habla ninguno de esos dos idiomas, por lo que en esos vídeos suplementarios no era él el que hablaba, sino una IA, que daba vida a su rostro para sincronizar los labios según las palabras que se pronunciaban.

Los vídeos fueron un éxito, hasta el punto de que llegaron, a través de grupos de WhatsApp, a 15 millones de electores. Quizá en este caso bastaría con informar al comienzo de la producción audiovisual de que los vídeos habían sido elaborados con deepfake para validar su uso, en aras de lograr una mayor difusión de la propuesta del candidato.

Estamos, en cualquier caso, en un terreno pantanoso en el que urge legislar mucho y bien. En esa senda, según informa La Vanguardia, la Unión Europea impondrá multas de hasta el 6% de la facturación total a gigantes tecnológicos como Google, Facebook o Twitter si no eliminan los vídeos deepfakes que alojan en sus plataformas.

Archivado en: