Circulan por las redes sociales multitud de vídeos editados con personajes famosos en secuencias de películas en las que nunca trabajaron. Especialmente conocidas son las secuen- cias pornográficas modificadas con el rostro de actrices famosas. Recientemente la industria de este tipo de algoritmos ha avan- zado en una línea peligrosa (era solo cuestión de tiempo). La App DeepNude es un ejemplo del uso malicioso de la inteligencia artifi- cial. Consiste en fotografiar con el móvil a una persona y mediante una enorme base de datos de imágenes de desnudos similares, ofrece una imagen (similar) de la persona desnuda. Este algoritmo está basado en uno de código abierto desarrollado por la Universidad de Berkeley en 2017. Los desarrolladores de DeepNude han creado para ello una base de datos de 10.000 mujeres desnudas. Muchas actrices famosas han sufrido este tipo de DeepFakes. La polémica suscitada con esta App ha obligado a sus creadores a reti- rarla recientemente del mercado. El avance de estas capacidades de manipulación de las imágenes y de las secuencias de vídeo debe hacernos pensar en su uso mali- cioso en las grabaciones de vídeo seguridad. Las imágenes grabadas por los sistemas de vídeo seguridad permi- ten la identificación de delincuentes y pueden ser en muchos casos la prueba incriminatoria, especialmente si no existen testigos pre- senciales del delito. ¿Cómo se puede garantizar a nivel forense que las imágenes de vídeo presentadas como prueba, no se encuentran manipuladas con el objetivo de incriminar a un inocente o exculpar a un culpable? La cadena de custodia de pruebas y el peritaje de las imágenes son las únicas armas defensivas con las que cuenta la justicia, y con el actual ritmo de avances tecnológicos, se me antojan defensas demasiado débiles. En su día los fabricantes de vídeo grabadores daban mucha importancia a las “marcas de agua” y “firmas digitales” orientadas a facilitar a los peritos la detección de alteraciones en fotogramas o secuencias de vídeo. Hace tiempo que nadie habla de ello y viendo cómo avanzan las tecnologías de manipulación de las imágenes, deberíamos volver a prestar atención a estos aspectos. Identificación facial Por otra parte, la aplicación de algoritmos de identificación facial está teniendo una mayor presencia, y es sin duda una tecnología que no tiene fin. Los campos de aplicación son enormes y espe- cialmente tendrán –o ya tienen- un especial protagonismo en la localización de sospechosos. Esta tecnología choca en Europa con las legislaciones sobre dere- chos de protección de datos de carácter personal, pero no es así en muchos países. Se destacan los países asiáticos, con poca o ninguna protección jurídica hacia sus ciudadanos, en los que este tipo de sistemas se están implantando masivamente. En esos paí- ses la tecnología está al servicio de un control policial masivo de los ciudadanos. En el otro extremo, la excesiva protección de los derechos puede y de hecho ya está limitando, el uso de una magnifica herramienta de detección temprana de terroristas y delincuentes, lo que puede evitar la pérdida de muchas vidas y bienes. Los procesos de identificación facial generan metadatos que son los que realmente se comparan con bases de datos. Estos datos no permiten la reconstrucción de la imagen del rostro, es decir, real- mente los sistemas no precisan guardar las imágenes del rostro de las personas y solo deben almacenar los metadatos. Pero como los sistemas no son infalibles, al mostrar la imagen almacenada junto a la identificada, permite que los operadores realicen una compro- bación. Sin esta comprobación pueden cometerse muchos errores. Según la LOPD no deberíamos almacenar las imágenes más de 30 días, pero podemos almacenar los metadatos sin límite de tiempo. Pero podemos preguntarnos qué ocurre con las imágenes de presuntos delincuentes enviadas por las Fuerzas y Cuerpos de Seguridad del Estado a los centros de vigilancia de seguridad privada o las expuestas en sus respectivas webs: Guardia Civil y Policía. Debemos suponer que estas imágenes pueden almacenarse indefi- nidamente y pueden ser cargadas en una lista 'negra' de un sistema de identificación facial. La Unión Europea deberá buscar una legislación que equilibre los derechos de los ciudadanos con el uso de tecnologías eficaces para aumentar la seguridad de Europa.• 27 VIDEOVIGILANCIA