BLOG

¿Qué opinan en SecOps sobre la IA?

Miniatura de Shawn Wormke
Shawn Wormke
Publicado el 11 de septiembre de 2025

Con la nueva tecnología, es fácil entusiasmarse. Todos recordamos la emoción de nuestro primer prompt con un gran modelo de lenguaje (LLM), la primera vez que usamos un navegador web o esa idea casi loca de que tus datos viven en una “nube”. Pero con cada innovación aparece un equipo completo de profesionales de seguridad que se encargan de garantizar que tú y el resto podamos usar estas tecnologías de forma segura. Es fácil dejarse llevar por los titulares y las posibilidades futuras, que en IA son muchas, pero al definir el papel de F5 en la seguridad de la IA, decidimos dar un paso atrás y preguntarte: ¿qué opina la comunidad de seguridad sobre la IA?

Porque en F5 nos implicamos profundamente con nuestros clientes, analizamos todos los comentarios relacionados con IA del último año (julio de 2024 – junio de 2025) entre los principales usuarios de la comunidad más grande de profesionales de seguridad en Internet, r/cybersecurity de Reddit. Clasificamos cada comentario y usuario según su sentimiento y desgranamos los puntos de dolor expresados o subyacentes en cada caso.

SecOps está dividido 50/50 respecto a la IA

Figura 1

El 48% de los profesionales se muestran optimistas y ya lo integran en su stack, mientras que el resto sigue escéptico o preocupado por lo que traerá el futuro.

La mitad de los comentarios de SecOps mostraron optimismo respecto a la IA. Usan herramientas impulsadas por IA en sus stacks, automatizan tareas repetitivas y emplean asistentes de IA para priorizar alertas.

La otra mitad de los comentarios se repartió entre el temor, por la complejidad de asegurar sistemas de IA, y el escepticismo ante la idea de que la IA vaya a avanzar mucho más de lo que ya ha hecho. 

Figura 2

La protección de datos es la principal preocupación que expresan los profesionales de seguridad en los comentarios de r/cybersecurity en Reddit, seguida de la detección de anomalías y observabilidad, y los ataques basados en IA.

IA oculta y seguridad de datos

La tensión entre las exigencias de datos de la IA y los principios fundamentales de la ciberseguridad ha situado la seguridad de datos en el centro del debate. Fue la principal preocupación para los profesionales de seguridad en 2025 y ha ido en aumento a medida que las empresas aceleraron su adopción de IA.

El principal problema que detectamos en este ámbito es la IA en la sombra, es decir, las interacciones no autorizadas de usuarios con sistemas de IA. No importa si tu organización está iniciando o ya es veterana en la adopción de IA; este problema sigue presente a cualquier nivel de madurez. 

La observabilidad es una condición esencial, no solo una función

La seguridad de los datos puede dominar la conversación, pero la observabilidad y la detección de anomalías son las siguientes preocupaciones principales en IA dentro de SecOps. Mientras los proveedores anuncian lo que la IA puede hacer para apoyar los flujos de trabajo de seguridad, los profesionales destacan la necesidad de mantener un equilibrio: “Los agentes de seguridad con IA solo pueden hacer hasta cierto punto, y siempre con una supervisión humana.” Un analista contó su experiencia usando IA para automatizar el triaje de nivel 1 de alertas EDR, reduciendo el MTTT de 45 minutos a menos de dos, pero aclaró: “esto no se logró sin normas estrictas, normas estrictas y más normas estrictas.” La demanda es clara: fomentamos visibilidad y trazabilidad continuas en todas las interacciones con IA, automatizamos el trabajo repetitivo y reservamos las decisiones estratégicas para los humanos. 

Las tácticas de los atacantes están cambiando

No es una amenaza teórica, es un multiplicador de fuerza que eleva el nivel para los oportunistas y amplía las capacidades de los actores de amenaza compleja. En la práctica, abordamos estos cambios en dos vertientes: nuevas técnicas de IA adversaria como la inyección de instrucciones o ataques de jailbreak dirigidos a sistemas de IA, y una democratización malintencionada de ataques de ingeniería social como el phishing y los deepfakes. Las preocupaciones sobre estos últimos aumentan a medida que modelos y agentes se integran con más herramientas y datos. 

El comportamiento del modelo requiere límites claros

Un 12 % más de los puntos críticos identificaron el comportamiento del modelo y la calidad de su salida como riesgos de seguridad. Las principales preocupaciones incluían alucinaciones, lagunas de precisión y resultados perjudiciales; sin embargo, la mayor de ellas era la escalada de privilegios: la IA accediendo a datos o realizando tareas para las que no tiene permiso. Aquí es donde SecOps impulsa la implementación de medidas prácticas: moderación de contenido ajustada al riesgo empresarial, alineación de políticas y permisos claros para modelos y agentes.

Qué espera SecOps de la seguridad con IA

Leyendo entre líneas, y en ocasiones directamente en ellas, los equipos de seguridad esperan que los proveedores cumplan con un nivel más exigente:

  • Prioriza la seguridad de los datos: Protección contra pérdida de datos (DLP) para aplicar políticas de IA y controles de acceso basados en el principio de mínimo privilegio.
  • Sin falsas promesas de IA: Demuestra capacidades reales de seguridad y cumplimiento con hechos, no con engaños.
  • Haz que la observabilidad esté lista para auditorías y sea útil: Simplifica e impulsa la integración con tus flujos de trabajo SIEM/SOAR actuales, asegurando visibilidad en todas las interacciones.
  • Flexibilidad para quienes están implicados: Diseña priorizando el impacto, no solo la rapidez.
  • Resiliencia frente a ataques: La superficie de ataque de la IA cambia continuamente, por lo que las soluciones deben adaptarse conforme surgen nuevas amenazas.
  • Simplifica la gestión de políticas.  Alinea las políticas y los marcos regulatorios empresariales sin generar trabajo manual adicional.

Atendemos el llamado

Prioriza la protección de datos, adapta la seguridad a las amenazas emergentes, integra la observabilidad en todas las interacciones y diseña con una gobernanza responsable de la IA. Seguiremos compartiendo conclusiones de pruebas reales, publicando orientaciones prácticas para que los equipos de seguridad las implementen, y mantendremos la transparencia en cómo mitigamos el riesgo.

Recordando el comentario de Reddit sobre IA segura O efectiva, esperamos poder sustituir ese “o” por un “y”.

Escuchamos tu llamado; esta es nuestra respuesta.