La obsesión por la manipulación de fotografías y vídeos no es nueva, ya en el siglo XIX se comenzaba a articular en el mundo del cine lo que en la década de 1990 se convertiría en tecnología deepfake. En un principio asociada a académicos y especialistas del séptimo arte, esta corriente comenzó en los años 2000 a coger fuerza entre las comunidades de internautas, mejorando sus técnicas con la combinación de materiales audiovisuales preexistentes con machine learning e inteligencia artificial. Anuncios como el de Cruzcampo con la imagen de Lola Flores, películas como Rogue One una historia de Star Wars, en la que reaparece Carrie Fisher o plataformas como Tik Tok ya han acercado el deepfake a un gran número de personas, sin embargo, para la gran mayoría sigue siendo prácticamente imposible distinguir la realidad de la ficción.
Riesgos de ciberseguridad
Recientemente, el Instituto Nacional de Ciberseguridad (INCIBE) alertaba de la suplantación de la identidad de los CEOs de varias empresas por parte de un grupo de ciberdelincuentes con el objetivo de pedir dinero o claves a los propios trabajadores de las compañías. La Oficina de Seguridad del Internauta (OSI) también ha registrado casos de “fraude solidario”, en los que los ciberdelincuentes crean vídeos de usuarios corrientes acompañados supuestamente de personajes famosos pidiendo a su red de amigos en redes sociales que envíen dinero a una falsa causa benéfica. Estas modalidades de ataque siguen siendo muy infrecuentes, pero evolucionan a gran velocidad, obteniendo resultados cada vez más verídicos, tanto en formato de vídeo como de audio. La rapidez de propagación de esta técnica se refleja en una investigación publicada en 2019 por Deeptrace, que confirmaba que el número de este tipo de contenidos se había doblado en menos de 12 meses, pasando de apenas 15.000 en 2018 a más de 50.0000 en el año siguiente.
¿Cómo distinguir un deepfake de un contenido verídico?
Ante la dificultad de verificar estos contenidos, en los últimos años han surgido múltiples aplicaciones expertas en identificar los fallos del deepfake basándose en algoritmos, pero, aparte de que ninguna consigue alcanzar un 90 % de fiabilidad, los ciberdelincuentes son muy hábiles encontrando sus coladeros de información. Con el objetivo de solucionar este problema, universidades de todo el mundo y grandes empresas tecnológicas colaboran para encontrar el punto débil de los que utilizan este método ilícitamente. Entre las investigaciones, destaca una publicada por la Universidad de Berkeley, que concluye que todos tenemos una manera única de mover los músculos faciales y la cabeza, un rasgo imposible de imitar, por el momento, por la tecnología. Mientras que no existan sistemas de verificación accesibles y certeros, el sentido común sigue siendo el mejor método para escapar a este tipo de fraudes. Parpadeos más lentos, una piel más iluminada que el fondo de la imagen, un tono de voz demasiado mecánico o gestos extraños pueden ser los indicadores de que se está siendo víctima de un ciberataque basado en deepfake.