El avance de los deepfakes ha alcanzado cifras preocupantes. Según datos recientes, este tipo de contenidos ha crecido un 550% entre 2019 y 2024, mientras que la capacidad humana para detectar vídeos falsos de alta calidad apenas alcanza el 24,5%. Este escenario ha llevado a replantear cómo se valida la veracidad del contenido visual en entornos críticos.
Ante esta situación, Axis Communications ha desarrollado una tecnología de vídeo firmado que permite verificar la autenticidad de las imágenes desde el mismo momento en que se capturan. A diferencia de otros sistemas que validan el contenido durante el procesamiento, esta solución incorpora una firma criptográfica directamente en la cámara, lo que garantiza que el vídeo no ha sido alterado desde su origen.
“La necesidad de contar con pruebas de vídeo forenses fiables es más importante que nunca”, ha explicado Alberto Alonso, responsable del Programa de Ingeniería, Ciberseguridad y Cumplimiento en Axis Communications para Iberia, quien ha destacado el papel de este tipo de tecnologías en ámbitos como la justicia, la seguridad o la investigación.
El sistema se apoya en la plataforma Axis Edge Vault, que añade una firma única al flujo de vídeo en el momento de la captura. Esto permite rastrear el contenido hasta su origen y comprobar su integridad en cualquier fase posterior, ya sea durante su almacenamiento o reproducción, incluso sin conexión.
Además, la compañía ha apostado por un enfoque abierto para impulsar la confianza en el sector. Sus herramientas de verificación están disponibles como software de código abierto, lo que permite a terceros, desde equipos jurídicos hasta fuerzas de seguridad, validar de forma independiente la autenticidad del material. Este modelo elimina la dependencia de soluciones propietarias y refuerza la transparencia en la cadena de custodia.
En paralelo, esta tecnología se alinea con estándares internacionales como ONVIF, que promueven la firma de contenido en el momento de la captura. Este enfoque resulta especialmente relevante en un contexto regulatorio en evolución, marcado por iniciativas como la AI Act europea, que exigirá identificar el contenido generado por inteligencia artificial.
“Mientras que la regulación busca etiquetar lo artificial, nuestra tecnología se centra en verificar lo real”, ha señalado Alonso. Según ha explicado, este tipo de soluciones actúa como un “sello de autenticidad” que permite diferenciar entre contenido manipulado y pruebas legítimas.
En un entorno donde la inteligencia artificial facilita tanto la creación como la manipulación de imágenes, la confianza ya no depende solo de lo que se ve, sino de lo que se puede demostrar. Y en ese nuevo escenario, la verificación en origen se perfila como una de las piezas clave para proteger la credibilidad digital.