Sustituir digitalmente la cara de una persona para ponerla en el cuerpo de otra es algo que se lleva realizando en Hollywood durante décadas, especialmente para las escenas de acción y de sexo en las que algunas de las estrellas del cine y la televisión se niegan a participar. Uno de los ejemplos más claros de la utilización de esta tecnología se ve en una de las escenas más conocidas de la serie Juego de Tronos, en la que una de las protagonistas debe caminar desnuda por toda la ciudad. En aquel caso, la escena fue realizada por una doble de cuerpo y la cara de la actriz, una de las protagonistas, fue incluida digitalmente con posterioridad.
Precisamente, el mundo de la pornografía en internet es uno de los lugares donde está aflorando la aplicación de estas técnicas, conocidas como 'deepfakes' (mentiras profundas en inglés). Los vídeos en los que se inserta la cara de una actriz o cantante famosa en el cuerpo de una actriz pornográfica se multiplican en las redes.
El Center for a New American Security (CNAS) es una organización estadounidense sin ánimo de lucro que promueve asuntos de seguridad entre la clase política. En el mes de julio publicó un estudio sobre usos de la Inteligencia Artificial relacionados con la seguridad nacional. Dijo sobre los deepfakes que es posible que en menos de cinco años puedan engañar a oídos y ojos no entrenados con tal de "difundir contenido falso, engañoso o hiperpartidista".
Las manifestaciones públicas de preocupación por este fenómeno van aumentando, con la preocupación central del efecto político que puede tener en la sociedad el avance de este método de desinformación. Incluso hay quien no descarta que sean los propios estados quienes utilicen los deepfakes a su beneficio.
Andrew Grotto, experto en seguridad del Centro para la Seguridad y la Cooperación Internacional en la Universidad de Stanford en California, afirmó en un artículo de AP News que los estados no podrán resistirse a usarlos para manipular la opinión pública. También se atrevió a rebajar el plazo fijado por el CNAS, ya que dijo que en "uno o dos años será realmente complicado para las personas distinguir entre vídeos reales y falsos".
Con una fuente de datos lo suficientemente grande, por ejemplo, de rostros de personas, son capaces de originar nuevas "fotografías" de personas que nunca han existido: las crea en base a lo aprendido. Una buena muestra la tenemos en el siguiente vídeo. Ni siquiera los humanos podemos diferenciar en él entre caras originales y generadas.
Pero este no es el único riesgo de la tecnología deepfake. Volvemos al vídeo de Barack Obama. Los creadores de ese clip decidieron poner en boca del presidente palabras relativamente "inofensivas". Pero piensa las consecuencias que puede tener difundir vídeos de políticos diciendo lo que sus enemigos quieran que digan. ¿Podría crearse un vídeo de Trump declarando la guerra a Corea del Norte? ¿Putin anunciando un bombardeo en Ucrania? En el mejor de los casos, profundizaríamos aún más en un problema que ya está presente y que resulta muy preocupante en la sociedad del Siglo XXI: la dificultad para distinguir las noticias reales de las falsas. Y en el peor, bueno, en el peor podría desatarse el pánico social en ciudades o países enteros