Una entrevista bajo el sol, pero ¿cae mal la sombra? Cómo los científicos forenses exponen los deepfakes utilizando trucos sencillos y herramientas de alta tecnología, y por qué los deepfakes pueden convertirse en un problema en los tribunales.
Su número está aumentando rápidamente: en las redes sociales, los deepfakes ofrecen diversión y entretenimiento en su máxima expresión. En los sitios pornográficos pueden destruir la reputación de las personas, mientras que en los sitios políticos pueden influir en las elecciones. Los deepfakes son imágenes, vídeos y grabaciones de audio engañosamente reales generados o manipulados por inteligencia artificial. En el debate actual se los reconoce cada vez más como un problema en la agenda política.
Pero, ¿cómo se descubre un deepfake? Nicolas Müller, del Instituto Fraunhofer de Seguridad Aplicada e Integrada en Garching, cerca de Munich, dirige un equipo de investigación sobre deepfakes. Un análisis inicial se puede hacer con los propios ojos y oídos, afirma.
“Cuando haces una entrevista con una persona, puedes comprobar: Esto fue tomado en Berlín en un día determinado. ¿Hace buen tiempo? También puedes comprobar con un vídeo: ¿Todas las sombras vienen de la esquina correcta?”
Puedes hacer esto manualmente: “Dibuja una línea de sombra a sombra en una imagen fija y mira si todas estas líneas, cuando las dibujas hacia arriba, comienzan desde un punto común. Si no, entonces es muy probable que sea un deepfake, al menos si es una escena al aire libre con una sola fuente de luz”.
Otro indicio son los momentos en los que se escucha una voz, pero la boca del hablante está cerrada: “Entonces pueden ver: ¿es sólo un retraso uniforme entre el vídeo y la banda sonora, o la IA cometió un error?”.
Hay otros indicadores clásicos de un deepfake: los artefactos alrededor de la boca, o en el cuello y la parte superior del cuerpo no coinciden en cuanto al tono de la piel, una mano tiene seis dedos, un objeto se fusiona con la mano o flota sobre ella.
Otra pista son los metadatos, aunque falten. “Si creas deepfakes con modelos de IA actuales como Gemini o ChatGPT, los metadatos dirán que fueron generados por IA. Pero también puedes desechar los metadatos”.
Además del ojo crítico y la propia lógica, también existen herramientas de inteligencia artificial para desenmascarar rápidamente los deepfakes: “Al final sale un valor numérico entre 0 y 100. 0 significa real, 100 significa falso. Normalmente, un deepfake tiene un valor de alrededor de 95”, afirma Müller.
Sin embargo, los modelos de IA se mejoran continuamente. “Los modelos convergen para producir imágenes que son casi indistinguibles del material real”. Sin embargo, el investigador no ve la realidad como negativa: “Es como en la ciberseguridad: el atacante mejora y luego la defensa sigue su ejemplo”.
Jens Kramosch (42), de la empresa Leak.Red de Erfurt, aborda los deepfakes como un investigador: “Es como llegar a la escena de un crimen. Lo mejor es mirar primero el panorama general. Por ejemplo, presto atención al cabello, a la línea del cabello, al parpadeo de las pestañas y a la textura de la piel”. La piel de los deepfakes suele ser demasiado suave.
“También es importante no sólo mirar el centro de la imagen, sino también los bordes: ¿encajan las líneas? ¿encajan las sombras? Hay varios modelos de IA que se centran en el objeto en el centro y descuidan lo que hay a su alrededor”.
Lo más difícil de reconocer es un deepfake con una sola persona en el centro de la imagen y un fondo difuso. “Para una mujer en un mar de flores, por ejemplo, es mucho más difícil para la IA calcular esto de una manera engañosamente realista”. Luego vienen los metadatos: ¿es correcta la geolocalización? ¿Tiempo y lugar? “A veces dice medianoche y 1970 como año de creación”.
Herramientas forenses de IA en uso
“Podemos crear con nuestra inteligencia artificial una cadena de pruebas”, afirma Kramosch, que las víctimas pueden encargar. “Si el deepfake está online, por ejemplo en Instagram, podemos congelarlo como prueba y luego no poder editarlo de nuevo. Esto está realmente protegido desde el punto de vista forense”.
Kramosch también ve que la inteligencia artificial es cada vez mejor y se supera constantemente. “Si hablamos de los deepfakes de IA que aparecieron online hace un año, ha habido 23 modelos mejores desde entonces. Creo que para finales de año estaremos realmente en el punto en el que los profanos ya no podrán notar la diferencia en las redes sociales”.
En el futuro tendremos que repensarlo: “En un momento determinado, casi solo habrá deepfakes, es decir, solo contenido generado artificialmente, y entonces será importante decir: esto es original. Entonces necesitaremos algo como la marca de verificación azul en Instagram, una especie de sello digital de autenticidad. Aunque ahora parezca dramático, pero: estaremos allí el año que viene”.
Pero, ¿los deepfakes seguirán siendo identificables como falsos con la ayuda de herramientas de inteligencia artificial? “Solo digo que sí ahora porque soy optimista y porque obviamente cada IA tiene un patrón determinado. Pero los últimos meses muestran que el desarrollo está ocurriendo muy, muy rápidamente”.
¿Las herramientas de inteligencia artificial convencen a los jueces?
“Los detectores de IA son a menudo sistemas de cajas negras. Determinan con probabilidad si se trata de un deepfake, pero no necesariamente explican por qué”, advirtió en febrero Tobias Wirth, del Centro Alemán de Investigación en Inteligencia Artificial.
La inteligencia artificial puede reconocer sistemas, patrones e indicadores que son difíciles o imposibles de percibir para el ojo humano. Se trata, por ejemplo, de diferencias sutiles a nivel de píxeles. Sin embargo, esto es problemático en los tribunales porque se necesitan declaraciones comprensibles para evaluar las pruebas.
dpa