Entrevista a Mario García, director general de Check Point Software para España y Portugal
Mario García, director general de Check Point Software para España y Portugal, explica en esta entrevista para Interempresas cómo la compañía integra más de 50 motores de IA en su plataforma Infinity para anticipar amenazas, automatizar la respuesta ante incidentes y mejorar la eficiencia operativa. Destaca casos reales en la administración pública y aborda los retos técnicos, regulatorios y éticos de la IA en ciberseguridad, así como la evolución futura hacia entornos de seguridad autónomos.
¿Qué papel juega actualmente la inteligencia artificial en la estrategia tecnológica y de protección de Check Point?
La inteligencia artificial es central en la estrategia de ciberseguridad avanzada de Check Point. Ante el crecimiento en volumen, velocidad y complejidad de los ciberataques, la IA permite detectar y neutralizar amenazas en tiempo real, incluso las desconocidas (zero-day), mediante análisis predictivo y aprendizaje continuo. La plataforma Check Point Infinity integra más de 50 motores de IA para ofrecer una ciberseguridad integral, predictiva y en constante aprendizaje, protegiendo a más de 100.000 empresas en todo el mundo. Este enfoque anticipa amenazas complejas, reduce tiempos de reacción y mejora la eficiencia operativa de los equipos de seguridad.
Mario García, director general de Check Point Software para España y Portugal.
¿Qué soluciones o tecnologías basadas en IA están integrando en sus productos para reforzar la ciberseguridad en las organizaciones?
Check Point ha desarrollado soluciones específicas basadas en IA como:
- ThreatCloud AI, red global que procesa más de 2.000 millones de decisiones diarias con machine learning y big data analytics, ofreciendo inteligencia contextual y detección proactiva.
- Infinity AI Copilot, basado en IA generativa, que asiste a analistas de seguridad automatizando investigación de incidentes, análisis de logs y gestión de alertas, mejorando la eficiencia en entornos SOC.
- Infinity XDR e Infinity Playblocks, herramientas de detección y respuesta extendida y automatización de flujos de seguridad, con IA para priorizar amenazas y ejecutar acciones de contención de forma autónoma, integradas en entornos híbridos y multicloud.
Estas tecnologías reducen la carga cognitiva de los equipos, mejoran la gestión de riesgos y permiten operaciones defensivas ágiles y escalables.
¿Podría compartir algún caso de uso destacado que refleje cómo la IA está mejorando la detección o respuesta frente a ciberamenazas?
Un ejemplo es la Diputación de Cádiz, que necesitaba seguridad de alta disponibilidad y gestión unificada. Implementó soluciones basadas en IA como Quantum Maestro e Infinity, que orquestan automáticamente la protección del perímetro de red y escalan recursos dinámicamente. La IA ha mejorado visibilidad, reducido tiempos de respuesta y mantenido la continuidad operativa ante ransomware, phishing y ataques dirigidos, siendo un caso real de aplicación en la administración pública.
¿Qué tipo de tecnologías de IA están empleando? ¿Cómo se combinan en su arquitectura de ciberprotección?
El enfoque es multicapa e integra:
- Machine learning supervisado y no supervisado, para detectar anomalías, clasificar amenazas y análisis predictivo.
- Deep learning, para identificar patrones complejos en archivos y tráfico de red que no se detectan con firmas tradicionales.
- IA generativa, aplicada en Infinity AI Copilot para generar respuestas automatizadas y asistir a analistas.
Estas tecnologías, integradas en Infinity y vinculadas a ThreatCloud, ofrecen cobertura integral y resiliencia empresarial.
En su experiencia, ¿cuáles son las principales barreras técnicas, regulatorias o organizativas para implementar soluciones de IA eficaces en ciberseguridad?
Las barreras son técnicas, organizativas y regulatorias. Técnicamente, muchas infraestructuras no están preparadas para integrar modelos de IA por limitaciones de procesamiento, interoperabilidad con sistemas heredados o falta de gobernanza de datos. Organizativamente, la escasez de personal cualificado limita la operación y optimización. Un estudio de Check Point con Vanson Bourne señala que el 89 % de equipos de seguridad identifica esta carencia como un freno. Normativamente, marcos como AI Act, NIS-2 o DORA exigen mayor trazabilidad, transparencia y control, lo que obliga a adaptar políticas, procesos y auditorías. Superar estas barreras requiere inversión, desarrollo de competencias y alineación regulatoria.
¿Cómo evalúan y afrontan el riesgo creciente de ciberamenazas que emplean IA generativa o aprendizaje automático para mejorar sus ataques?
Las amenazas impulsadas por IA crecen rápidamente. Entre los riesgos más críticos están la suplantación de identidad con contenido manipulado, el envenenamiento de modelos LLM, generación automática de malware, minería de datos en la dark web y modelos maliciosos como FraudGPT o WormGPT. Para combatirlos, Check Point ha integrado detección avanzada basada en IA que identifica contenido manipulado, analiza comportamientos anómalos y valida autenticidad de texto, audio o vídeo. Estas funciones buscan anticipar y neutralizar tácticas emergentes de atacantes que usan IA generativa o aprendizaje automático.
¿Qué opinión tienen del enfoque regulatorio europeo con el AI Act? ¿Está condicionando sus desarrollos o despliegues tecnológicos?
La valoración es positiva: el AI Act garantiza un uso ético, transparente y seguro de la IA, reforzando la confianza y alineando innovación con derechos fundamentales. En la práctica, ha llevado a reforzar políticas de diseño y validación de modelos, sobre todo en IA generativa y tratamiento de datos personales, incluyendo trazabilidad, auditoría y control de sesgos. No se ve como limitación, sino como una guía para un desarrollo responsable.
¿Qué medidas concretas están adoptando en Check Point para garantizar un uso ético, transparente y seguro de la inteligencia artificial?
Se aplica una política estricta de gobernanza de IA que incluye:
- Supervisión humana permanente en procesos críticos.
- Auditorías internas y externas de modelos para evitar sesgos o errores.
- Etiquetado y trazabilidad de contenidos generados por IA según AI Act.
- Capacitación en ética y uso responsable de IA para equipos de desarrollo y operaciones.
- Políticas reforzadas de privacidad para evitar exposición de datos sensibles en procesos automatizados.
¿Cómo creen que evolucionará el papel de la inteligencia artificial en el futuro de la ciberseguridad y la defensa frente a amenazas avanzadas?
La evolución apunta hacia entornos de seguridad autónomos, donde la IA asumirá funciones clave en detección, análisis forense, respuesta y resiliencia, con SOC que migrarán hacia arquitecturas ‘assistive-first’ o ‘AI-led’. Copilotos cognitivos actuarán en tiempo real, anticipando movimientos del adversario y ejecutando contramedidas con mínima intervención. La IA se combinará con tecnologías como cifrado post-cuántico, gestión de superficie de ataque e inteligencia colaborativa, habilitando una defensa adaptativa frente a actores cada vez más organizados y automatizados. En este contexto, la IA pasará de herramienta auxiliar a infraestructura estratégica de ciberdefensa tanto para empresas como para instituciones.



