Transparencia y ética, imperativos urgentes
Kaspersky celebra en Madrid la conferencia Horizons con alertas sobre IA y amenazas cuánticas en ciberseguridad
Durante los días 30 de junio a 2 de julio, Madrid acogió una nueva edición de Kaspersky Horizons, el principal evento europeo de la compañía de ciberseguridad, centrado este año en la evolución del ransomware, las amenazas cuánticas y los principios éticos para el desarrollo de sistemas basados en inteligencia artificial. La investigación del equipo GReAT mostró cómo grupos como FunkSec han empezado a automatizar la producción de malware gracias a modelos generativos y cómo esta estrategia de bajo coste y alta frecuencia está rediseñando el panorama del ransomware global. En paralelo, Kaspersky analizó los tres principales riesgos que plantea la computación cuántica sobre las infraestructuras de cifrado actuales. La compañía aprovechó la cita para presentar su propuesta de directrices técnicas y principios éticos orientados a reforzar el uso seguro de la IA en soluciones de ciberseguridad.
Un ransomware generativo que ya opera en Europa y Asia
Uno de los puntos más destacados de la conferencia fue la presentación pública del funcionamiento interno de FunkSec, un nuevo grupo de ransomware detectado por el equipo GReAT de Kaspersky. Activo desde finales de 2024, FunkSec ha conseguido situarse entre las amenazas más sofisticadas mediante una combinación de cifrado masivo, exfiltración agresiva de datos y uso extensivo de modelos de lenguaje generativos para automatizar herramientas maliciosas.
Según Kaspersky, FunkSec ha sido capaz de diseñar un ejecutable único en lenguaje Rust que integra cifrado completo, autolimpieza y robo de información sensible, sin necesidad de scripts auxiliares. Esta capacidad técnica permite que sus operadores desplieguen el malware de forma inmediata en distintos entornos y desactiven más de cincuenta procesos en los equipos comprometidos.
El comportamiento del ransomware está condicionado por un sistema de contraseñas. Si no se introduce ninguna, el malware se limita al cifrado básico. Sin embargo, una contraseña válida activa funciones adicionales como la exfiltración de datos. Esta arquitectura adaptativa, unida al desarrollo automático de funciones redundantes —típicas de código generado por IA— revela un patrón de programación basado en modelos de lenguaje generativos, que facilita la creación de variantes sin necesidad de conocimientos avanzados.
El grupo ha diversificado sus capacidades añadiendo a su arsenal un generador de contraseñas en Python y una herramienta básica de denegación de servicio. Ambas se distribuyen en su propio sitio de filtraciones en la dark web. Además, FunkSec ha optado por una estrategia de rescates bajos —en algunos casos inferiores a 10.000 dólares— combinada con la venta de datos robados a precios reducidos, lo que indica una orientación hacia el volumen de ataques y no a la personalización selectiva.
Evolución del ransomware y automatización de amenazas
El informe Estado del Ransomware 2025, también presentado durante el evento, muestra que el porcentaje de usuarios afectados por este tipo de ataques ha aumentado hasta el 0,44% a escala mundial entre 2023 y 2024. Aunque el incremento global ha sido de apenas 0,02 puntos porcentuales, en Europa la variación ha sido más significativa, con un ascenso de 0,06 puntos. A pesar de representar un porcentaje bajo en relación con otras amenazas, el ransomware se concentra cada vez más en objetivos estratégicos, especialmente en sectores como el gubernamental, el financiero o el tecnológico, donde las consecuencias de un ataque pueden resultar críticas.
FunkSec representa, según el equipo GReAT, un cambio estructural en el modelo delictivo. El empleo de IA permite automatizar el desarrollo, reducir costes de operación y escalar los ataques con una velocidad inédita. Marc Rivero, investigador principal del equipo de seguridad de Kaspersky, advierte de que “la IA generativa reduce las barreras de entrada y acelera la creación de malware, lo que permite a los ciberdelincuentes adaptar sus tácticas con rapidez, incluso sin experiencia técnica avanzada”.
La facilidad para generar código malicioso ha intensificado los riesgos asociados a errores humanos o falta de supervisión. En los análisis de laboratorio, se han detectado indicios de funciones no utilizadas o comentarios genéricos en el código de FunkSec, como “placeholder for actual check”, que refuerzan la hipótesis del uso de modelos generativos. Esta tendencia pone de manifiesto la necesidad urgente de reforzar los mecanismos de detección temprana y supervisión de actividades inusuales en la red.
Los productos de Kaspersky han clasificado la amenaza FunkSec bajo la firma HEUR:Trojan-Ransom.Win64.Generic y recomiendan una combinación de soluciones EDR, monitorización del tráfico saliente y políticas de respaldo desconectado para mitigar el riesgo de infección.
El riesgo cuántico y el horizonte de ruptura del cifrado
En otro bloque de la conferencia, Kaspersky presentó un informe específico sobre la computación cuántica y su impacto previsto en los métodos actuales de cifrado. Aunque los ordenadores cuánticos funcionales aún no han alcanzado aplicaciones comerciales generalizadas, la posibilidad de que grupos de amenazas persistentes avanzadas (APT) o actores estatales accedan a esta tecnología en la próxima década introduce nuevos riesgos para la protección de datos sensibles.
La compañía identifica tres vectores de amenaza derivados de este avance: la práctica de almacenar ahora datos cifrados para descifrarlos más adelante cuando la tecnología esté disponible, la posibilidad de sabotaje en redes blockchain y criptomonedas, y el uso futuro de ransomware resistente a la cuántica. Esta última amenaza se refiere al empleo de criptografía post-cuántica por parte de los propios desarrolladores de malware, dificultando la recuperación de archivos cifrados tanto por métodos clásicos como cuánticos.
Entre los ejemplos concretos analizados se encuentra la vulnerabilidad del algoritmo de firma digital de curva elíptica (ECDSA), empleado por Bitcoin y otras criptomonedas. Un ataque exitoso podría permitir la falsificación de firmas digitales y la manipulación de transacciones. Según la declaración conjunta de 18 Estados miembros de la UE citada durante el evento, “esta es una amenaza cuando la confidencialidad de los datos debe mantenerse durante largos periodos de tiempo […] Las organizaciones y gobiernos deben comenzar esta transición de inmediato”.
Kaspersky sugiere que las organizaciones adopten marcos híbridos que combinen prácticas actuales con mecanismos post-cuánticos, de forma que puedan adquirir experiencia sin comprometer su operativa. Pilar Troncoso, directora de relaciones en Qcentroid, empresa colaboradora en este ámbito, recordó que “adoptar marcos híbridos desde ahora permite a las organizaciones explorar, probar y validar soluciones preparadas para el entorno cuántico, obteniendo experiencia práctica mientras la tecnología madura”.
Hacia una Inteligencia Artificial ética y segura
La tercera línea temática de la conferencia se centró en el uso responsable de la inteligencia artificial y la necesidad de establecer directrices técnicas y principios éticos que garanticen la seguridad de los sistemas basados en IA. Kaspersky presentó sus 'Directrices para el desarrollo y la implantación segura de sistemas de IA', un documento técnico que aborda aspectos como la seguridad en entornos cloud, la protección de la cadena de suministro de datos y los mecanismos de defensa frente a ataques adversariales.
Estas propuestas se complementan con un segundo documento, 'Principios éticos para el uso de sistemas de IA en ciberseguridad', que fija cuatro pilares fundamentales: transparencia, seguridad, control humano y protección de datos. Según la encuesta de Kaspersky 'Cyber defense & AI: Are you ready to protect your organization?', el 47% de las empresas españolas teme perder la confianza de sus clientes si no refuerzan su protección frente a ataques con IA y el 40% reconoce no contar con experiencia técnica suficiente para mitigar estos riesgos.
Kaspersky ya había firmado en 2024 el AI Pact de la Comisión Europea como paso previo a la implementación del AI Act, primer marco legal integral sobre el uso de IA aprobado a escala global. Durante el evento, la compañía insistió en que las herramientas actuales ya permiten reforzar la detección de amenazas y la predicción de incidentes, pero que su efectividad está condicionada por el control humano y la calidad de los datos.
En palabras de Jochen Michels, director de relaciones públicas en Kaspersky Europa, “una IA ética es la base de la confianza, del cumplimiento normativo y del éxito empresarial a largo plazo”. Liliana Acosta, directora de la consultora Thinker Soul, añadió que “cuando se producen brechas de seguridad, las consecuencias suelen recaer con más dureza sobre los individuos y los colectivos más vulnerables”. Ambos resaltaron la necesidad de sistemas de IA que equilibren eficacia y equidad.



