En la era digital actual, el término “deepfake” se ha convertido en sinónimo de sofisticadas manipulaciones de video que permiten crear imágenes y grabaciones falsas con una apariencia increíblemente realista. Durante años, los avances en inteligencia artificial y aprendizaje automático han facilitado la generación de rostros en video que imitan a personas reales con detalles que a simple vista resultaban difíciles de diferenciar. Sin embargo, una de las formas más confiables para detectar estos videos manipulados se basaba en la ausencia de señales fisiológicas genuinas, como el pulso cardíaco, que se refleja en sutiles cambios de color en la piel. Recientes investigaciones han demostrado que esta premisa, considerada hasta hace poco una defensa sólida contra deepfakes, está siendo superada por la evolución imparable de estas tecnologías. El estudio dirigido por el profesor Peter Eisert, de la Universidad Humboldt en Alemania, ha revolucionado la comprensión sobre cómo los deepfakes pueden engañar a los métodos tradicionales de detección.
La investigación, publicada en la revista Frontiers in Imaging en 2025, revela que los deepfakes modernos no solo preservan los patrones de latidos cardíacos presentes en los videos originales, sino que los replican con tal precisión que estos signos vitales pueden ser parcialmente reconocidos en el contenido manipulado. Este hallazgo llama a replantear todo el campo de detección de deepfakes y pone en alerta a expertos en ciberseguridad, medios de comunicación y entidades gubernamentales. ¿Cómo se detecta un latido cardíaco en un video? La técnica fundamental para esta detección es la fotopletismografía remota (rPPG), un método no invasivo que captura las minúsculas variaciones de color de la piel causadas por el flujo sanguíneo. Cuando el corazón late, pequeñas ondas de sangre pasan cerca de la superficie de la piel, provocado cambios imperceptibles que algoritmos especializados pueden analizar para determinar el ritmo cardiaco. Hasta ahora, la ausencia de estos cambios en un video era una señal clara de manipulación, pues los algoritmos generadores de deepfakes no imitaban estas particularidades fisiológicas.
La investigación de Eisert y su equipo desafía esta certeza. Analizando un amplio conjunto de videos genuinos y sus versiones deepfake, los científicos desarrollaron un proceso que incluye la compensación del movimiento facial y técnicas avanzadas de transformación de la piel para aislar las frecuencias que corresponden a los latidos del corazón, entre 42 y 180 pulsaciones por minuto. Sus experimentos incluyeron grabaciones con iluminación uniforme y mediciones reales del pulso mediante electrocardiogramas y sensores de fotopletismografía para validar sus métricas. Los resultados fueron sorprendentes porque, aunque los deepfakes contenían señales cardíacas más débiles que los videos originales, la correlación entre las tasas de pulso reales de los sujetos y las señales extraídas de las falsificaciones fue muy significativa. Esto indica que las tecnologías de deepfake ahora transfieren inadvertidamente la firma del pulso cardíaco del video fuente a la copia manipulada.
Esta capacidad no intencionada representa un gran reto para las soluciones actuales que confían en la ausencia de señales fisiológicas como criterio para detectar falsificaciones. Además, el estudio destacó que el nivel de ruido en los deepfakes era mayor y las señales cardíacas menos claras, lo que podría ser una pista para futuras técnicas de detección más refinadas. Sin embargo, simplemente buscar la presencia o ausencia global de un latido deja de ser suficiente, porque los deepfakes modernos ya no carecen de esta característica. Ante este nuevo panorama, los investigadores proponen una reinvención de los métodos de detección basados en la fisiología. La clave, según ellos, está en analizar cómo se distribuye el flujo sanguíneo y el color de la piel en diferentes regiones del rostro a lo largo del tiempo.
En videos genuinos, el pulso se presenta con patrones específicos que varían naturalmente entre distintas áreas del rostro, como las mejillas, la frente y el mentón. Por el contrario, aunque los deepfakes capturan el ritmo cardíaco general, es más probable que estos patrones regionales no sean replicados con fidelidad, generando anomalías que futuros sistemas podrían identificar. La sofisticación alcanzada por los deepfakes tiene un impacto significativo en diversos ámbitos. En la política, la creación de falsos videos realistas puede manipular la opinión pública y socavar la confianza en figuras públicas y procesos democráticos. En la justicia y los medios, la proliferación de contenido manipulado sin métodos de detección fiables amenaza la credibilidad de la información y la seguridad legal.
Así, la carrera entre desarrolladores de deepfakes y expertos en detección se convierte en una competencia constante de innovación tecnológica. El avance también refleja la necesidad de una educación digital más sólida y de herramientas que permitan a individuos y organizaciones verificar la autenticidad de los contenidos audiovisuales de manera rápida y accesible. Plataformas como YouTube y redes sociales deben implementar sistemas que combinen análisis fisiológico sofisticado con otras señales de autenticidad para proteger a sus usuarios de la desinformación. A pesar de los desafíos, este descubrimiento abre nuevas oportunidades para la investigación. Al entender mejor cómo se manifiestan los signos vitales en videos manipulados, es posible diseñar algoritmos más robustos, que analicen no solo la existencia del pulso, sino su calidad, distribución espacial y temporal.
Esta multidimensionalidad en la detección puede aumentar la precisión y reducir falsos positivos. No obstante, la investigación reconoce limitaciones relevantes. La calidad del video, la iluminación ambiental, las compresiones y el ruido externo pueden afectar la extracción de las señales cardíacas, poniendo en jaque la viabilidad de la detección en escenarios reales y variados. Otro desafío es la ausencia de datos de referencia en muchos conjuntos públicos de deepfakes, lo que dificulta la validación de nuevas técnicas en diferentes contextos. Con financiamiento del Ministerio Federal de Educación e Investigación de Alemania y del programa europeo Horizonte Europa, el proyecto encabezado por Eisert y sus colaboradores representa un paso decisivo hacia la comprensión y mitigación de esta amenaza tecnológica.