La compañía advierte de nuevos riesgos de cara a 2026
Check Point Software alerta del auge de ciberataques contra agentes de IA
Check Point Software, junto a su partner tecnológico Lakera AI Security, ha dado a conocer un análisis que constata un incremento significativo de los ciberataques dirigidos a agentes de inteligencia artificial durante el último trimestre de 2025, con especial énfasis en técnicas indirectas y en la manipulación de fuentes externas.
Check Point Software Technologies ha publicado un nuevo análisis elaborado por Lakera, su partner especializado en seguridad de IA, que pone de manifiesto un cambio relevante en las estrategias de los ciberdelincuentes a medida que los sistemas de inteligencia artificial incorporan capacidades más avanzadas, como el uso de herramientas, la lectura de documentos o la interacción con fuentes externas.
El estudio se basa en un mes de monitorización de tráfico real protegido por Lakera Guard durante el cuarto trimestre de 2025 y confirma que los agentes de IA se han convertido en un objetivo prioritario. Los datos revelan que los atacantes están adaptando rápidamente sus técnicas para explotar las nuevas funcionalidades de estos sistemas, especialmente en entornos con capacidades agentivas.
Extracción de prompts y evasión de controles de seguridad
Según el análisis, el objetivo más habitual de los ciberataques fue la extracción del prompt del sistema, que representó aproximadamente el 60 % de los intentos detectados. Este tipo de información permite a los atacantes comprender el funcionamiento interno del modelo, sus límites y los flujos o herramientas que utiliza, facilitando ataques posteriores de mayor complejidad.
Junto a esta técnica, cerca del 20 % de los intentos analizados buscaban eludir los mecanismos de seguridad de contenido, mientras que un 12 % correspondía a ataques exploratorios sin un objetivo inmediato claro, empleados como fase de reconocimiento. El informe también identifica intentos dirigidos a la filtración de datos confidenciales y a la inyección de código malicioso, especialmente en escenarios donde los agentes de IA interactúan con información real o con sistemas conectados.
La compañía analiza los patrones de ataque más comunes contra sistemas de IA con capacidades agentivas y señala que las técnicas indirectas y la manipulación de fuentes externas se consolidan como uno de los principales vectores de riesgo.
El auge de los ciberataques indirectos
Uno de los aspectos más destacados del informe es la creciente eficacia de los ciberataques indirectos. A diferencia de las inyecciones directas de instrucciones, los atacantes ocultan órdenes maliciosas dentro de documentos, páginas web u otros contenidos externos que los agentes procesan como parte de su funcionamiento normal. Este enfoque requiere menos intentos para tener éxito y resulta más difícil de detectar, ya que el contenido externo suele tratarse como contexto legítimo.
Entre las técnicas más utilizadas se encuentran los escenarios hipotéticos, la ocultación de instrucciones camufladas en el contenido, los juegos de rol y los falsos marcos de autoridad, en los que el modelo es inducido a actuar como si estuviera realizando una prueba interna, una simulación educativa o una evaluación de seguridad. En muchos casos, ligeras variaciones en el lenguaje, el contexto o el idioma bastan para alterar el comportamiento del sistema.
Nuevos riesgos en entornos agentivos
El análisis también detecta la aparición de ciberataques específicamente diseñados para entornos de IA agentiva, como intentos de acceso a repositorios internos de documentos, instrucciones ocultas en contenidos externos o fragmentos de texto con apariencia de scripts capaces de propagarse a lo largo de flujos automatizados. Este tipo de ataques refleja un cambio de enfoque, en el que los ciberdelincuentes ya no se limitan a forzar respuestas, sino que buscan influir en todo el proceso de razonamiento y ejecución del agente.
David Haber, CEO de Lakera, advierte de que “estamos entrando en una etapa en la que la seguridad de la IA ya no puede centrarse únicamente en el contenido que genera el modelo”. Según el directivo, cuando un sistema empieza a leer documentos, consultar fuentes externas o ejecutar acciones, cada uno de esos pasos se convierte en una posible superficie de ataque.
La seguridad de la IA, un reto clave para 2026
De cara a 2026, Check Point Software subraya que la protección de los sistemas de IA deberá abarcar todo el ciclo de funcionamiento del agente, incluyendo las fuentes externas, las herramientas conectadas y la forma en que se interpretan y combinan los distintos contextos. La compañía insiste en la necesidad de aplicar enfoques de seguridad preventiva integrados desde el diseño, con controles específicos frente a inyecciones indirectas, filtración de información sensible y uso indebido de capacidades automatizadas.
El informe refuerza además la importancia de alinear la seguridad de la IA con marcos internacionales como el OWASP Top 10 para aplicaciones basadas en modelos de lenguaje, y de considerar los sistemas de IA agentiva como componentes críticos dentro de la arquitectura digital de las organizaciones.








