CIONET News

AI for Security and Security for AI

Written by Redacción CIONET Spain | August 08, 2025 @ 1:29 PM

El pasado 4 de junio, CIONET España organizó una mesa redonda en colaboración con Cisco bajo el título “AI for Security and Security for AI”, en la que exploramos cómo utilizar la IA para mejorar la seguridad (AI for Security), pero también cómo garantizar un uso responsable y protegido de la propia inteligencia artificial (Security for AI). Porque la velocidad a la que se están desplegando estas tecnologías exige nuevos marcos, nuevas preguntas... y una reflexión compartida. Una oportunidad para comparar enfoques, aprender lo que hacen otras organizaciones y extraer valiosas ideas que podrá aplicar en su propio entorno.

 

AI for Security and Security for AI

 

 

IA para la ciberseguridad: protección frente a amenazas cada vez más sofisticadas

Hoy en día, el uso de inteligencia artificial ya no es opcional para las organizaciones que quieren mantenerse a salvo. El incremento del volumen de ataques y la creciente sofisticación de los métodos empleados por los ciberdelincuentes obligan a adoptar tecnologías que permitan detectar y responder de forma más rápida y eficiente. La IA, en este contexto, actúa como una aliada esencial.

Según el último estudio Cybersecurity Readiness Index de Cisco, el 84% de las organizaciones españolas ya utiliza IA para comprender mejor las amenazas. El 81% la aplica específicamente en tareas de detección y el 67% en respuesta y recuperación.

Estos datos reflejan una realidad palpable: la IA permite automatizar tareas repetitivas, como la eliminación de falsos positivos, y libera a los analistas para que puedan centrarse en amenazas reales con mayor potencial de impacto. También ayuda a identificar patrones de comportamiento anómalos y aplicar una lógica contextual a los eventos detectados, algo clave para saber si una acción es legítima o parte de un ataque dirigido.

Además, muchas herramientas de ciberseguridad ya incorporan algoritmos de machine learning para analizar grandes volúmenes de datos de logs, tráfico de red, comportamiento de usuarios y endpoints. Más recientemente, han surgido asistentes inteligentes que actúan como copilotos de los analistas, así como agentes autónomos capaces de ejecutar acciones de contención de forma automática ante determinadas amenazas. Este tipo de soluciones no solo mejora la eficiencia operativa de los equipos SOC, sino que también reduce drásticamente el tiempo de detección y respuesta ante incidentes.

Asimismo, el uso de IA es clave para gestionar escenarios complejos de múltiples vectores de ataque: desde el correo electrónico hasta redes sociales, entornos cloud, dispositivos IoT o sistemas industriales. La hiperconectividad ha ampliado las superficies de ataque, y la inteligencia artificial permite mantener una vigilancia constante y adaptativa sobre todos esos frentes.

Cabe destacar también el papel de la IA en la identificación de amenazas avanzadas persistentes, campañas de ransomware altamente personalizadas y ataques de ingeniería social difíciles de detectar mediante reglas estáticas. En este contexto, la IA ya no es una opción tecnológica, sino una necesidad operativa.

 

 

Ciberseguridad para la IA: cómo proteger los sistemas inteligentes


El segundo eje del debate abordó un aspecto crítico que aún está en una fase incipiente en muchas organizaciones: cómo proteger los propios sistemas de inteligencia artificial. A medida que estas tecnologías se integran en procesos clave, se convierten también en vectores de riesgo si no se gobiernan y protegen adecuadamente.

Uno de los principales desafíos es la falta de visibilidad sobre qué modelos de IA se están utilizando, con qué datos se han entrenado y bajo qué condiciones están operando. Esta opacidad dificulta la identificación de vulnerabilidades, sesgos o posibles manipulaciones de los modelos.

Por eso, se insistió en la necesidad de aplicar un enfoque de security by design, que contemple la seguridad desde la fase de concepción del sistema. Esto implica:

  • Securización del código durante el desarrollo.
  • Validación de la calidad y origen de los datos de entrenamiento.
  • Evaluaciones continuas del comportamiento de los modelos en producción.
  • Monitorización de resultados anómalos o inesperados.
  • Cumplimiento normativo (RGPD, NIS2…) respecto al uso de datos sensibles o decisiones automatizadas.

Otro punto clave es la gestión del acceso a herramientas de IA generativa. El uso descontrolado de modelos como ChatGPT o Gemini por parte de los empleados puede derivar en fugas de información, filtraciones accidentales de datos confidenciales o generación de contenido malicioso.

Aquí se plantea un dilema habitual: ¿bloquear por completo estas herramientas o permitir su uso bajo supervisión? La mesa redonda se inclinó por la segunda opción: ofrecer alternativas seguras, plataformas corporativas con IA específica para tareas concretas, y políticas claras de uso responsable.

Además, los ataques contra sistemas de IA no son teóricos: ya existen técnicas de model poisoning, prompt injection o data poisoning que permiten manipular los resultados que produce un modelo, influir en su comportamiento o extraer información confidencial. La securización de la IA debe, por tanto, contemplar estos vectores de amenaza.

 

La cultura como cimiento: concienciación y formación


Más allá de la tecnología, la conversación puso sobre la mesa una realidad muchas veces olvidada: el factor humano sigue siendo el principal punto de entrada de los ciberataques. No importa cuántas soluciones se desplieguen, si no hay una cultura de seguridad que acompañe la adopción tecnológica, la protección siempre será parcial.

El phishing, el uso de contraseñas débiles o la compartición de credenciales siguen siendo algunas de las causas más comunes de brechas de seguridad. Y es ahí donde la formación continua, la concienciación y la participación activa del empleado marcan la diferencia.

Se destacó, además, la importancia de evitar una aproximación punitiva al uso de la IA por parte de los empleados. En lugar de prohibir, hay que formar. En lugar de castigar, hay que guiar. Solo así se genera una cultura donde el trabajador se convierte en parte activa del sistema de defensa.

También se recordó que la IA no debe operar sin supervisión. Por muy avanzados que sean los modelos, siempre debe haber un eslabón humano que asuma la responsabilidad última. La supervisión humana no solo es un principio ético, sino una necesidad operativa.

 

El futuro: más IA, más retos (y más necesidad de seguridad)

 

La IA ya está transformando la manera en que las organizaciones interactúan con la tecnología, pero lo que está por venir es aún más disruptivo. El avance de la computación cuántica promete multiplicar exponencialmente la capacidad de procesamiento, pero también podría poner en jaque los actuales sistemas de cifrado y seguridad.

En paralelo, la evolución de los modelos fundacionales, la IA autónoma y la hiperautomatización abrirán nuevos escenarios donde la capacidad de anticiparse será más importante que nunca.

En este futuro próximo, la ciberseguridad no podrá mantenerse como una función reactiva. Tendrá que ser predictiva, proactiva y totalmente integrada en la estrategia de negocio. Esto exigirá nuevos perfiles profesionales, nuevas herramientas y, sobre todo, una mentalidad distinta: colaborativa, transversal y flexible.

La colaboración entre proveedores tecnológicos, instituciones públicas y el ecosistema empresarial será clave para definir marcos regulatorios, estándares comunes y buenas prácticas que ayuden a escalar el uso seguro de la IA.

Conclusiones


La inteligencia artificial ha dejado de ser una promesa de futuro para convertirse en una herramienta imprescindible en la defensa frente a amenazas digitales. Pero esa misma tecnología necesita estar protegida, gobernada y bien implementada para no convertirse en un nuevo vector de riesgo.

La clave está en encontrar el equilibrio: usar la IA con inteligencia, garantizar su seguridad desde la base y construir una cultura organizativa que acompañe su adopción de forma responsable. Porque en este nuevo mapa digital, proteger la IA es, también, proteger a las personas, los datos, los procesos y el propio futuro del negocio.

Esto implica una responsabilidad compartida entre todos los actores del ecosistema digital: desde los desarrolladores de tecnología hasta los responsables de negocio, desde los equipos de IT hasta los propios usuarios. La seguridad de la IA no puede depender solo de una capa tecnológica o de un único departamento.