Los expertos advierten de que cada vez serán más habituales para extorsionar o atentar contra el honor
Es un fenómeno nuevo, pero ya está muy extendido. Desde hace poco más de dos años, circulan por internet fragmentos de vídeos en los que vemos, por ejemplo, a actrices famosas en escenas pornográficas. Son sus caras, pero no sus cuerpos. En España se popularizó una parodia de El equipo A, llamada El equipo E, con distintos políticos españoles. Eran sus caras, pero los cuerpos pertenecían a los actores de la famosa serie de los ochenta. Son los llamados vídeos ultrafalsos (deepfakes), y también existen en forma de audios en los que se simula que una persona conocida está diciendo algo que realmente nunca ha dicho.
Los expertos afirman que es un paso más hacia el engaño en las redes sociales. Se trata de un fenómeno extendido que se ha duplicado durante el 2019 y que sigue en crecimiento, según los expertos. Una investigación del año 2019 revela que, aunque hay vídeos de entretenimiento o de tipo político, el 96 % de los vídeos deepfakes son pornográficos, y las cuatro webs más visitadas de este tipo de contenidos aglutinan más de 134 millones de visualizaciones. Las mujeres componen el colectivo más afectado, sobre todo las actrices inglesas y las cantantes surcoreanas. «Los deepfakes pornográficos buscan relevancia y muchas visualizaciones, y la industria va mucho más dirigida a hombres que a mujeres», explica Josep Navarro, profesor colaborador de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). Los estudios han detectado una veintena de webs con foros en los que participan hasta 100.000 miembros, en su mayor parte —el 90 %— de países occidentales.
Según el docente, este tipo de productos son un «eslabón más» para que los receptores duden de cualquier vídeo, sonido, noticia o archivo que les llegue a través de las redes sociales. ¿Estamos ante la confianza cero? «No es el único aspecto que nos lleva a ello, sino la suma de los constantes engaños que sufrimos en las redes sociales desde hace ya unos años», lamenta Navarro, que considera que hay dos cuestiones que hay que tener en cuenta en la expansión de los vídeos y los audios deepfakes. Por una parte, que las empresas privadas dueñas de las redes sociales intentan tomar medidas y excluir contenidos que no cumplan las leyes de los derechos de autor, pero «no los van a bloquear», apunta el experto. Y, por otra, que se fabrican con herramientas tecnológicas que se popularizan por su «sencillez» y por su «fácil acceso».
Un estudio de enero de 2020 asegura que los programas son cada vez más «eficientes y prácticos» y que, por tanto, se producirán más contenidos deepfakes para «monetizarlos» y estos serán «más realistas», mientras que los sistemas de control de Facebook o Google «van por detrás» del avance de estos contenidos, añaden los investigadores. Este mismo informe concluye que, por el momento, los actores, los políticos o los empresarios serán las principales víctimas, ya que para difamar a un ciudadano anónimo hacen falta «muchísimas imágenes» previas capaces de reconstruir movimientos falsos. Sin embargo, el experto de la UOC no está de acuerdo con esta afirmación y advierte de que todos tenemos «gran cantidad de fotos, vídeos y audios en las redes sociales» a los que cualquiera podría acceder y con los que podría montar un vídeo o audio engañosos. «Cada vez serán más habituales los deepfakes para extorsionar o atentar contra el honor de las personas normales y no solo el de los famosos», alerta.
El parpadeo de los ojos, un movimiento facial natural… Así se detecta un deepfake
Las celebridades han sido las primeras en sufrir las consecuencias de los vídeos y los audios deepfakes. «El problema más grave es que los protagonistas ven cómo su imagen es utilizada para fines maliciosos y, principalmente, cómo puede afectar a su reputación antes de poder desmentir el bulo», resalta el docente de la UOC, que opina que la responsabilidad y la actitud individual son fundamentales a la hora de detectar estos contenidos y no caer en el engaño. «No tenemos que creer lo que nos envíe un amigo o conocido diciendo, a su vez, que se lo ha enviado una persona de confianza», dice. «Hay que contrastar la veracidad de la información porque, de lo contrario, estamos alimentando el fenómeno», añade. Para poder comprobar la veracidad del vídeo o audio que recibimos, Navarro enumera las siguientes medidas: que haya parpadeo de ojos, que los movimientos faciales sean «naturales» o que no haya cambios en la luminosidad o en los tonos de piel. Según el experto, se trata de precauciones que no son difíciles de tomar. «Aunque no seamos conscientes de ello, nuestro cerebro está acostumbrado a detectar este tipo de aspectos de una forma bastante natural, porque lo hemos aprendido desde pequeños», asegura.
El lado positivo de los deepfakes
Pero, como muchas otras herramientas tecnológicas, los vídeos y los audios deepfakes son fruto de un avance de la inteligencia artificial que tiene infinitos usos positivos. «Esta técnica apareció en el cine en 2016 para dar vida a una actriz que había fallecido durante el rodaje», recuerda Navarro. La industria del cine es una de las más beneficiadas por esta tecnología, y Disney ya ha anunciado que trabaja con ella. Otras aplicaciones importantes podrían ser los audiolibros leídos por autores desaparecidos o la mejora de asistentes de voz como Google Maps. Y es que la parte solo auditiva también tiene el doble efecto —positivo y negativo— en contenidos que recibimos a través de las redes o internet. Es más, el profesor universitario asegura que en España se han registrado más contenidos deepfakes de este tipo con personajes famosos, algunos ya muertos. Según él, «con un vídeo podemos tener más dudas de si es o no veraz, pero con un audio, no». Los efectos perniciosos de una llamada o un mensaje de voz pueden ser muy graves, como sucedió en Reino Unido, donde una llamada de un supuesto director ejecutivo (CEO) de una empresa logró que un trabajador realizara una transferencia de 200.000 euros que resultó ser una estafa.