EFE | Bogotá

La reina de Inglaterra, Isabel II, aparece ante las cámaras para dar su tradicional discurso de Navidad desde su despacho en el palacio de Buckingham. 

Con semblante serio, se dirige a la nación para advertirles de lo difícil que se ha vuelto discernir entre la verdad y la mentira. Pero, en medio de la alocución, y tras anunciar que ha estado practicando coreografías de TikTok durante la pandemia, se alza de la silla y empieza a bailar bajo una bola de discoteca y una lluvia de confeti. 

Las imágenes fueron difundidas en 2020 por el canal británico Channel 4, y, a pesar de su verosimilitud, son falsas; se trata de un “deepfake”, un video creado con inteligencia artificial en el que un programa reemplazó la cara de una actriz por la de la reina.

CÓMO FUNCIONAN LOS «DEEPFAKES»

Los “deepfakes” se crean con algoritmos que “leen” los rostros faciales de decenas de imágenes y videos tomados desde distintos ángulos. Con esa información, el programa consigue recrear la voz y la imagen de una persona simulando sus gesticulaciones sobre la cara de otra.

Los mejores programas utilizan una gran cantidad de recursos audiovisuales y cada vez que crean un «deepfake» están mejorando sus algoritmos para hacerlo mejor a la próxima gracias al «machine learning», métodos computacionales y estadísticos que permiten a los ordenadores aprender tareas basadas en datos existentes.

El uso de los «deepfakes» no tiene que ser intrínsecamente malo, señala a EFE Verifica Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). 

Los “deepfakes” pueden resucitar a famosos ya fallecidos, como hizo la cervecera Cruzcampo en un anuncio que revivió a la cantante española Lola Flores durante unos minutos, o “ahorrar costes en películas que puedan prescindir de actores reales para las secuencias más peligrosas”, añade la experta.

DESINFORMACIÓN SOFISTICADA

Pero en las manos equivocadas, los “deepfakes” pueden convertirse en una herramienta para desinformar de una forma mucho más sofisticada que las mentiras falsas al uso. Pueden poner palabras en la boca de un presidente que inviten al desorden público, o pueden desprestigiar a activistas haciéndoles aparecer en falsos videos pornográficos.

De hecho, el término “deepfake” nació en 2017 por un usuario de la plataforma Reddit con ese nombre que subió videos con los rostros de famosas como Taylor Swift o Gal Gadot en el cuerpo de actrices porno. 

Para Salazar, “el nivel de alarma ahora mismo debe de ser elevado”, porque en cuanto a la desinformación, “los deepfakes pueden ser tremendamente peligrosos”.

Cuando una persona ve algo por escrito, añade Salazar, puede intuir por la tipografía que es un contenido modificado, pero cuando una persona ve una imagen que se mueve y se expresa con naturalidad “se lo va a creer casi seguro”. 

cuando todo puede ser falso

Por otra parte, la periodista Claire Wardle, cofundadora y directora de First Draft, organización líder en el combate a la desinformación, advierte en un editorial de The New York Times que el “alarmismo” en torno a los “deepfakes” puede ser aprovechado por políticos para refutar que aparecieron en un video cometiendo un crimen o un hecho reprobable.

Por ejemplo, el expresidente de EE.UU. Donald Trump puso en duda que fuese él quien aparecía en un video filtrado antes de las elecciones presidenciales de 2016 en el que se lo veía haciendo comentarios groseros sobre las mujeres.

Precisamente esa línea brumosa entre la verdad y la ficción catalizó un intento de golpe de estado en Gabón hace casi tres años. En 2018, en el país hacía meses que no se veía al presidente, Ali Bongo, lo que había espoleado rumores sobre su salud. 

Cuando después de un largo tiempo reapareció en un video para dar el discurso de Año Nuevo, la rigidez y poca naturalidad de sus gestos despertaron sospechas de que era un “deepfake”. Las dudas añadieron más argumentos a la idea de que el presidente era incapaz de gobernar, con mensajes que incluso decían que estaba muerto. El Ejército intentó dar un golpe de estado una semana después. 

The Washington Post investigó el video y consultó con expertos en inteligencia artificial que señalaron que es muy probable que el video fuera cierto y que la gestualidad artificial se debiera a secuelas de un derrame cerebral.

¿CÓMO IDENTIFICARLoS?

La empresa emergente Sentinel identificó desde 2019 un crecimiento del 900 % de los “deepfakes”, cuando se pasó de unas 14.500 a 145.000. La mayoría fueron compartidos en redes sociales y tuvieron cerca de 6.000 millones de visualizaciones. 

El crecimiento acelerado se debe a que cada vez es más fácil crearlas. EFE Verifica analizó un “deepfake de la activista climática Greta Thunberg en el que aparece desnuda. Las imágenes manipuladas habían sido creadas con una aplicación para el móvil, según confesaba el autor anónimo en la descripción del video.

Mientras los países siguen debatiendo su regulación, los expertos consultados por EFE Verifica insisten en la importancia de la cibereducación y del desarrollo de programas que los identifiquen.

El experto en ciberseguridad Juan David Cardona dio algunos consejos a EFE Verifica que pueden ayudar a reconocerlos: 

  • Fijarse en la gesticulación de la persona que aparece en el video, ya que en los «deepfakes» siempre va a haber retrasos en los fotogramas o en la voz. 
  • Puede haber movimientos en los que se desplace la imagen sobrepuesta. 
  • Fijarse si coincide el tono de piel entre la cara y el cuerpo.  
  • Mirar si la fuente de donde proviene el video es conocida y confiable. Si no lo es, buscar si aparece en otras fuentes respetables como periódicos.

Teniendo en cuenta estos consejos, ¿se atrevería a decir si este video de Tom Cruise es cierto?

FUENTES:

Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA).

Juan David Cardona. experto en ciberseguridad.

Deepfakes: ¿es este video real?, de Claire Wardle, directora de First Draft, para The New York Times.

Resumen ejecutivo de la empresa emergente Sentinel sobre tendencias de los «deepfakes» en 2020.

Recopilación de literatura científica sobre los «deepfakes«, de la Universidad Complutense de Madrid.

Transcripción de los comentarios grabados de Donald Trump durante una grabación de 2005, por The New York Times.