Reconocimiento facial y manipulación de las imágenes
Circulan por las redes sociales multitud de vídeos editados con personajes famosos en secuencias de películas en las que nunca trabajaron. Especialmente conocidas son las secuencias pornográficas modificadas con el rostro de actrices famosas.
Recientemente la industria de este tipo de algoritmos ha avanzado en una línea peligrosa (era solo cuestión de tiempo). La App DeepNude es un ejemplo del uso malicioso de la inteligencia artificial. Consiste en fotografiar con el móvil a una persona y mediante una enorme base de datos de imágenes de desnudos similares, ofrece una imagen (similar) de la persona desnuda.
Este algoritmo está basado en uno de código abierto desarrollado por la Universidad de Berkeley en 2017. Los desarrolladores de DeepNude han creado para ello una base de datos de 10.000 mujeres desnudas.
Muchas actrices famosas han sufrido este tipo de DeepFakes. La polémica suscitada con esta App ha obligado a sus creadores a retirarla recientemente del mercado.
El avance de estas capacidades de manipulación de las imágenes y de las secuencias de vídeo debe hacernos pensar en su uso malicioso en las grabaciones de vídeo seguridad.
Las imágenes grabadas por los sistemas de vídeo seguridad permiten la identificación de delincuentes y pueden ser en muchos casos la prueba incriminatoria, especialmente si no existen testigos presenciales del delito. ¿Cómo se puede garantizar a nivel forense que las imágenes de vídeo presentadas como prueba, no se encuentran manipuladas con el objetivo de incriminar a un inocente o exculpar a un culpable?
La cadena de custodia de pruebas y el peritaje de las imágenes son las únicas armas defensivas con las que cuenta la justicia, y con el actual ritmo de avances tecnológicos, se me antojan defensas demasiado débiles. En su día los fabricantes de vídeo grabadores daban mucha importancia a las “marcas de agua” y “firmas digitales” orientadas a facilitar a los peritos la detección de alteraciones en fotogramas o secuencias de vídeo. Hace tiempo que nadie habla de ello y viendo cómo avanzan las tecnologías de manipulación de las imágenes, deberíamos volver a prestar atención a estos aspectos.
Identificación facial
Por otra parte, la aplicación de algoritmos de identificación facial está teniendo una mayor presencia, y es sin duda una tecnología que no tiene fin. Los campos de aplicación son enormes y especialmente tendrán –o ya tienen- un especial protagonismo en la localización de sospechosos.
Esta tecnología choca en Europa con las legislaciones sobre derechos de protección de datos de carácter personal, pero no es así en muchos países. Se destacan los países asiáticos, con poca o ninguna protección jurídica hacia sus ciudadanos, en los que este tipo de sistemas se están implantando masivamente. En esos países la tecnología está al servicio de un control policial masivo de los ciudadanos.
En el otro extremo, la excesiva protección de los derechos puede y de hecho ya está limitando, el uso de una magnifica herramienta de detección temprana de terroristas y delincuentes, lo que puede evitar la pérdida de muchas vidas y bienes.
Los procesos de identificación facial generan metadatos que son los que realmente se comparan con bases de datos. Estos datos no permiten la reconstrucción de la imagen del rostro, es decir, realmente los sistemas no precisan guardar las imágenes del rostro de las personas y solo deben almacenar los metadatos. Pero como los sistemas no son infalibles, al mostrar la imagen almacenada junto a la identificada, permite que los operadores realicen una comprobación. Sin esta comprobación pueden cometerse muchos errores.
Según la LOPD no deberíamos almacenar las imágenes más de 30 días, pero podemos almacenar los metadatos sin límite de tiempo. Pero podemos preguntarnos qué ocurre con las imágenes de presuntos delincuentes enviadas por las Fuerzas y Cuerpos de Seguridad del Estado a los centros de vigilancia de seguridad privada o las expuestas en sus respectivas webs: Guardia Civil y Policía.
Debemos suponer que estas imágenes pueden almacenarse indefinidamente y pueden ser cargadas en una lista 'negra' de un sistema de identificación facial.
La Unión Europea deberá buscar una legislación que equilibre los derechos de los ciudadanos con el uso de tecnologías eficaces para aumentar la seguridad de Europa.