En un avance clave para la lucha contra la desinformación digital, investigadores de la Universidad de California en Riverside desarrollaron un sistema de detección automatizada de videos falsos que va mucho más allá de los conocidos deepfakes. Esta herramienta es capaz de identificar manipulaciones en piezas audiovisuales que no presentan cambios en los rostros ni en las voces de las personas, lo cual representa un nuevo desafío en el ecosistema de la verificación de contenidos.
A diferencia de los sistemas actuales —que se centran en detectar alteraciones en rostros humanos mediante redes neuronales entrenadas para identificar patrones anómalos— este nuevo modelo analiza múltiples capas del video, incluyendo incongruencias espaciales, temporales y contextuales.
“Hay muchos videos manipulados que no necesariamente implican cambiar una cara o una voz, sino editar escenas, alterar secuencias o insertar imágenes fuera de contexto. Nuestro sistema puede identificarlos”, explicó el líder del proyecto, Amit Roy-Chowdhury, profesor de ingeniería eléctrica y computación.
El sistema se basa en un modelo de aprendizaje automático entrenado con una amplia base de datos de videos reales y falsificados, incluyendo casos de alteraciones sutiles y no convencionales. Analiza variables como:
Desalineaciones entre el movimiento de cámara y los objetos.
Cortes abruptos o transiciones artificiales.
Cambios de iluminación o sombras inconsistentes.
Errores semánticos entre la imagen y el audio.
Además, emplea una técnica conocida como “análisis multimodal cruzado”, que compara la información visual con los metadatos y el sonido, generando un mapa de “anomalías narrativas” dentro del video.
Este avance cobra especial relevancia en un contexto global donde la manipulación de contenidos audiovisuales se ha convertido en una herramienta frecuente en campañas políticas, conflictos internacionales y operaciones de influencia en redes sociales.
El equipo espera que esta tecnología pueda ser utilizada por plataformas como YouTube, TikTok o X (ex Twitter)para detectar y etiquetar contenidos falsificados antes de que se viralicen, así como por periodistas y verificadores de datos.
Los investigadores trabajan actualmente en una versión de código abierto que permita su integración en herramientas de verificación de terceros. También analizan la posibilidad de desarrollar una extensión para navegadores, con la que cualquier usuario pueda verificar la autenticidad de un video en tiempo real.
Este nuevo sistema representa un salto cualitativo en la detección de videos falsos, al enfocarse en manipulaciones más sutiles y difíciles de rastrear. En una era donde la desinformación audiovisual se vuelve cada vez más sofisticada, iniciativas como esta son clave para proteger la integridad del discurso público y garantizar el acceso a información confiable.