Semantic Forensics (SemaFor), la caza de deepfakes del Gobierno de EEUU Semantic Forensics (SemaFor), la caza de deepfakes del Gobierno de EEUU

SemaFor, el programa con el que EEUU lucha contra los deepfakes (sin mucho éxito de momento)

Estados Unidos combate la amenaza en la que se están convirtiendo los deepfakes con un programa de detección, SemaFor, aunque de momento no está logrando el éxito necesario.

Por Gabriel Fidalgo  |  13 Julio 2022

El desarrollo de imágenes sintéticas, conocido como deepfakes, se está convirtiendo en algo habitual en nuestras vidas. El objetivo de esta tecnología es crear contenido falso, ya sea para algo tan simple como un meme o para algo más serio como una noticia. Aunque el resultado es espectacular y llamativo, al normalizar los deepfakes corremos el riesgo de creernos cosas que no son verdad y de aumentar la ya potente desinformación actual. El alcance de esta ciencia es tan grande que incluso nosotros mismos podemos llegar a ser suplantados en cualquier vídeo o fotografía.

La tecnología deepfake trajo de vuelta al fallecido Peter Cushing en 'Rogue one' La tecnología deepfake trajo de vuelta al fallecido Peter Cushing en 'Rogue one', imagen de sustitución
La tecnología deepfake trajo de vuelta al fallecido Peter Cushing en 'Rogue one' Disney

Los deepfakes se obtienen haciendo que un software analice un archivo multimedia original y extraiga parte de él, para luego insertarlo y adaptarlo en otro. Esto se puede hacer con cualquier elemento del material auténtico, pero la forma más común de su uso es la de intercambios de caras o deep video portraits. Es un recurso que hemos visto muchas veces en el cine o en la televisión, sobre todo con el anuncio de Lola Flores todavía circulando meses y meses después.

Los deepfakes pueden ir mucho más allá del intercambio de caras Los deepfakes pueden ir mucho más allá del intercambio de caras, imagen de sustitución
Los deepfakes pueden ir mucho más allá del intercambio de caras Twitter

La tecnología que emplean los deepfakes todavía necesita un perfeccionamiento, pero está mejorando a pasos agigantados cada año. Sin embargo, aunque estamos acostumbrados a verlo con un fin de entretenimiento, no deja de ser un software para el engaño, por lo que depende mucho de quién lo use, y sobre todo, de cómo lo use. Ante este riesgo, la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), perteneciente al Departamento de Defensa de los Estados Unidos, ha seguido la actividad y la evolución de los deepfakes muy de cerca, desarrollando un programa que le haga frente para consolidar la seguridad nacional. Con la desinformación en aumento, cazar todos los deepfakes que amenacen dicha seguridad, y evitar de esta manera una proliferación de las fake news, se ha convertido en una prioridad esencial de la agencia fundada en 1958.

DARPA, el organismo responsable de las bases de Internet, tiene la función de desarrollar nuevas tecnologías para la defensa del país. Hay quien los acusa de haber sido ellos los que germinaron la semilla de los deepfakes, pero lo cierto es que su uso se ha salido de cualquier tipo control y ahora circula por todo el mundo libremente, lo que muchos hackers aprovechan para comprometer las cuentas bancarias de las personas y sus datos en la red.

DARPA ha realizado un seguimiento de la evolución de los deepfakes desde 2016 DARPA ha realizado un seguimiento de la evolución de los deepfakes desde 2016, imagen de sustitución
DARPA ha realizado un seguimiento de la evolución de los deepfakes desde 2016 darpa.mil

SemaFor, ¿la solución a los deepfakes?

La cara, los gestos y la voz de cualquier individuo puede ser escaneado y transferido utilizando la tecnología deepfake. Para poder evitar que los ciudadanos sufran de ataques de este tipo, DARPA propuso desarrollar una herramienta automatizada para cazarlos: Semantic Forensics (SemaFor). Este programa incluye algoritmos de detección semánticos, que determinan si los activos multimedia se han generado o manipulado, algoritmos de atribución, para saber si estos provienen de una organización o de un individuo; y algoritmos de caracterización, que analizan si se crearon o manipularon con un propósito malicioso.

La guerra que DARPA quiere ganar se centra en identificar, comprender y determinar las campañas de desinformación de cualquier posible adversario del país. Sin embargo, y pese a que la investigación esté dando sus frutos, parece que al sistema de SemaFor todavía le cuesta reconocer muchos deepfakes debido a la precisión de los mismos. El Gobierno de Estados Unidos está tan interesado en conseguir que esta tecnología funcione que, en los últimos meses, ha aumentado todavía más el gasto en SemaFor, para el cual también trabajan ahora la CIA, el FBI y otras agencias como el Departamento de Salud y Servicios Humanos.

Las redes sociales sirve como el mayor contenedor de deepfakes existente Las redes sociales sirve como el mayor contenedor de deepfakes existente, imagen de sustitución
Las redes sociales sirve como el mayor contenedor de deepfakes existente Freepik

La última esperanza de Estados Unidos de alcanzar a los creadores de deepfakes está en que la investigación de DARPA dé resultados. Hasta entonces y por el momento, la guerra la tienen perdida, y no se sabe si hay opciones de ganarla. Los responsables de los video portraits, capaces de crear material tan sofisticado como para poder reproducir, incluso, la voz de las personas, suelen estar dos pasos por delante de la Agencia. Solo si SemaFor se actualiza para paliar las nuevas técnicas de deepfake y sus algoritmos se perfeccionan todavía más puede tener una oportunidad de ser realmente útil.

La tecnología de intercambio de caras se ha convertido en todo un fenómeno, y cada vez podemos encontrar a más medios advirtiéndonos de sus peligros. Tendemos a creernos casi cualquier cosa que circula por las redes, y muy pocas veces verificamos toda la información que nos llega. DARPA sigue insistiendo en que puede ponerle fin a los deepfakes maliciosos con SemaFor. ¿Nos lo creeremos también?

Artículos recomendados