Recibe un vídeo que parece del rey Felipe VI. Lo abre. Sale vestido con el traje de capitán general del Ejército en lo que parece su despacho. Dice que ha decidido activar varias brigadas para restaurar el orden en Cataluña ante la ineficacia de las fuerzas civiles. No puede ser, pero está claro que es él, o al menos, un rey tan real como la persona que cada 24 de diciembre habla por la tele. Por más que lo vuelve a reproducir no encuentra nada en la cara, los movimientos, el entorno y la voz que le confirme que es falso. En menos de un minuto le llega por varios chats más y las redes. Los medios serios aún no han dicho nada, pero decide llamar a su hermano que vive allí. Por si acaso.

Desde hace dos años internet conoce un nuevo fenómeno llamado deepfake, manipulaciones digitales audiovisuales que usan tecnologías como inteligencia artificial y machine learning para falsear un vídeo original. Habituales en el mundo anglosajón, el usuario Face to Fake ha conseguido terminar de popularizar el término en España al incluir las caras de los principales líderes políticos del país en vídeos de la serie de los 80 El Equipo A.

Aunque el concepto también se aplica para fotografía y sonido, como asegura el experto en ciberseguridad Héctor Insausti, el término se ha popularizado para vídeos que suplantan la identidad de una persona, normalmente un famoso o una autoridad. A día de hoy, la mayoría de estos fakes o montajes son detectables a simple vista o mediante software especializado y cabe esperar que el gran público aprenda a reconocerlos como ya detecta montajes con vídeo y sonido sacado de contexto. Pero los mejores ejemplos de estas técnicas demuestran, como admite Insausti, director de operaciones y delegado en Alicante de Neocheck, que “aún no está controlada”.

El deepfake español más popular

Para lograr resultados como el de este usuario es necesario entrenar al software para que detecte los rasgos que singularizan a una persona y aprenda a reproducirlos. Para conseguir que Hillary Clinton y Donald Trump se metan en la piel del Capitán America y Iron Man, o ejemplos de arte popular en internet más sorprendentes como el deepfake de Harrison Ford en Solo, es necesario alimentar al programa con una cantidad ingente de imágenes y vídeos del protagonista para que aprenda a imitarlo mediante una máscara digital. Porque, básicamente, el software coloca una careta al protagonista del vídeo que se perfecciona con cada nueva fotografía o frame del protagonista que “estudia”. Así, al igual que un imitador consume mucha información del imitado para meterse en su piel, este software necesita muchos datos visuales del suplantado para que las texturas y relieves de su máscara se adapten al maniquí.

Los creadores de deepfakes buscan desde simplemente divertirse hasta influir en la opinión pública, pasando por ganar dinero con estafas y fraudes. Esta tecnología permite hacer que Nicholas Cage sea el actor de todas las películas de Hollywood, que un narco fichado abra una cuenta online usando su propia cara ante la webcam y un filtro entre ella y el banco o reventar una votación con declaraciones falsas de un candidato, como se ve en la serie de HBO Years and years.

En 2017, primer año de expansión del término y del software, era divertido. Morboso y delictivo, en el peor de los casos. Foros como Reddit propagaron y perfeccionaron los primeros deepfakes virales: se popularizaron colocando a actrices famosas en escenas pornográficas. Era fácil y demandado. Los ingredientes para hacerlo estaban online y al alcance de cualquiera: el archivo de fotografías y vídeos de famosos en la red es casi infinito. Pero en los últimos dos años, conforme se perfeccionaba la técnica, el chiste ha empezado a asustar.

Niveles de fakes

Grado de dificultad de creación y detección de montajes digitales según técnica utilizada:

Cheapfakes: Requieren menos expieriencia y recursos técnicos

  • Vídeos originales fuera de contexto: son fáciles de desmontar con pocas comprobaciones. Abundan en medios de fake news y perfiles amateur.
  • Parecidos razonables: Normalmente se usan "dobles" de personalidades en contextos sexuales


En otros países se usan dobles para simular escenas comprometidas de políticos o famosos y perjudicarles. En España es más habitual aprovechar el parecido de desconocidos para afectar de alguna manera a personalidades. En 2015 circuló durante semanas en redes la imagen de una chica desnuda parecida a la líder de Podemos en Andalucía, Teresa Rodríguez.

  • Filtros en tiempo real para apps: Filtros de cambio de sexo, edad y otros efectos. Accesibles para cualquier usuario.
  • Alteraciones de velocidad: Aceleración/decelaración de movimiento o voz en audios o vídeos originales. Utiliza programas de vídeo profesionales.
  • Face swapping (Rotoscopio): Sustituciones amateur de una cara por otra. En ocasiones usan técnicas de animación tradicional.

Deepfakes: Requieren más experiencia y recursos técnicos

  • Sincronización de labios: La técnica fusiona la actuación de un actor con las expresiones y la voz del protagonista del vídeo.
  • Face swapping (After Effects/Fake App): El deepfake más popular. Usa software de edición de vídeo y machine learning experimental para insertar el rostro de un actor en el cuerpo de otro. Abundan los vídeos humorísticos y pornográficos 
  • Voz sintética: El software aprende a reproducir la voz de una persona con exactitud. Combinado con deepfakes en vídeo el resultado es muy creíble
  • Interpretaciones virtuales: La tecnología GAN (Generative Adversarial Networks) permite reconstruir la gesticulación de cualquier rostro y adaptarla a un audio. Tecnologías como Recurrent Neural Network (RNN), Hidden Markov Models (HMM) y Long Short Term Memory Models (LTSM) permiten entrenar a una inteligencia artificial con audio y vídeo y generar una marioneta digital indistinguible de la persona.

En el año 2015 algunas entidades bancarias, como el BBVA, decidieron dar un paso más en el recorte de costes de personal facilitando la apertura de cuentas online, directamente desde casa. “Fue un desastre. Se encontraron con muchas cuentas abiertas por personas que no existían“, explica Insausti. Para prevenir que los criminales pudiesen operar sin restricciones, las entidades atajaron el problema exigiendo una “prueba de identidad” en vídeo además del grupo de datos habitual. Les salió bien tal y como explica este informático: “Funcionó, porque el banco podía comprobar la identidad del cliente por videoconferencia. Pero la estrategia caducó en apenas un año, porque ahora ya se pueden hacer deepfakes en tiempo real sustituyendo la cara e incluso la voz del conferenciante por una máscara digital”.

10

Deepfakes: de la broma al miedo Redacción informacion.es

Interrogar al deepfake

¿Cómo saber a simple vista si lo que estamos viendo es un reflejo veraz de la realidad o un artefacto que intenta engañarnos? Insausti propone, al estilo de los blade runners, interrogar al vídeo. “La mayoría de los deepfakes se han entrenado con datos de personas famosas. Suelen posar para las fotos y vídeos, por lo que escasean las imágenes laterales. El software reproduce mal los giros de cabeza. Es lo primero en que nos deberíamos fijar”, apunta. También existen otras técnicas como observar el parpadeo de los protagonistas, ya que tampoco abundan las fotos con ojos cerrados. Así, las máquinas suelen reproducir máscaras robotizadas que cierran los ojos con mucha menor frecuencia que un humano, igual que un cantante que ha olvidado la letra estira las sílabas para llegar a la siguiente estrofa. Por supuesto, existe investigación trabajando en este campo y hay inteligencias artificiales entrenándose para detectar fakes generados por otra IA.

Los deepfakes de momento han causado risa y luego asombro, que entre los más recelosos se ha convertido directamente en temor. Los investigadores han aprovechado la exactitud de los resultados para volver a cuestionarse qué es realmente una prueba de veracidad. Pero nadie duda de que la primera exhibición de poder de esta tecnología está al llegar, renderizándose a fuego lento para estallar en las redes justo antes de unas elecciones, una cumbre o una operación policial.

De momento, podemos seguir sonriendo con la versión Murdock de Albert Rivera o el regocijo de ver a Santiago Abascal en la piel de M. A. Barracus. Y comprobar los interesantes resultados que se producen al utilizar fotografías de archivo de políticos alicantinos y valencianos en una simple aplicación online de Face Swapping.