BLOG

Protegiendo los sistemas de IA: Por qué la seguridad debe avanzar al ritmo de la innovación

Miniatura del personal de la sala de prensa de F5
Personal de la sala de prensa de F5
Publicado el 4 de agosto de 2025

La inteligencia artificial puede cambiar vidas y ya lo ha hecho de manera profunda. Desde acelerar avances en medicina y educación hasta transformar el trabajo y la vida diaria, la IA está redefiniendo cómo vivimos y actuamos. Pero, junto a estos progresos, la IA también ofrece potentes herramientas a los ciberdelincuentes.

Hoy, los adversarios atacan activamente los sistemas de IA, explotando vulnerabilidades a través del poisoning de datos, resultados manipulados, robo no autorizado de modelos mediante destilación y exposición de datos privados. No se trata de riesgos especulativos: son reales, evolucionan rápidamente y pueden causar consecuencias financieras graves. Los modelos también impulsan grandes avances en ataques por correo electrónico y fraudes por SMS y voz, mientras que los deepfakes son cada vez más difíciles de detectar, causando pérdidas multimillonarias.

Según el Informe del Índice de IA de Stanford 2025, los incidentes de seguridad ligados a la IA crecieron un 56,4 % en 2024, alcanzando 233 casos reportados. No fueron simples fallas o problemas técnicos. Estos incidentes incluyeron compromisos serios, desde violaciones a la privacidad y amplificación de desinformación hasta manipulación y fallos en algoritmos que ponen en riesgo decisiones críticas.

Pero como siempre, una de nuestras estadísticas preferidas es el tiempo de permanencia, es decir, el tiempo entre la brecha y su detección. El informe de IBM del primer trimestre de 2025 reveló que detectamos y controlamos las vulneraciones específicas de IA en un promedio de 290 días, mucho más que los 207 días promedio en brechas de datos tradicionales. Eso significa casi 10 meses de exposición, tiempo suficiente para que estos atacantes potenciados por IA causen daños graves.

Por qué la mayoría de empresas aún no están preparadas

Para aprovechar al máximo la IA, debe garantizar su seguridad con la misma urgencia que aplica en redes, bases de datos y aplicaciones. Sin embargo, el desequilibrio actual entre adopción y protección revela otra realidad.

El Informe Estado de la Aplicación de IA 2025 de F5 lo confirma. Solo el 2 % de las organizaciones encuestadas demostraron una seguridad sólida y están preparadas para escalar la IA con confianza. Por su parte, el 77 % enfrenta retos graves en seguridad y gobernanza de la IA.

El informe también mostró que solo una pequeña parte de las empresas con preparación moderada ha implementado protecciones básicas. Solo el 18 % había desplegado firewalls de IA, y apenas el 24 % aplicaba el etiquetado continuo de datos, un método clave para identificar comportamientos adversarios. La situación empeora por el creciente uso de Shadow AI: herramientas de IA no autorizadas que generan brechas graves de visibilidad en los entornos empresariales.

Al desplegar IA para ganar ventaja competitiva, muchas organizaciones amplían sin querer su superficie de ataque.

Por qué la IA resulta vulnerable

Las particularidades de la IA la hacen vulnerable a nuevos tipos de ataque. Entre las vulnerabilidades más críticas se encuentran:

  • Poisoning de datos: Los atacantes introducen de forma sutil datos corruptos o engañosos en los conjuntos de entrenamiento, afectando el comportamiento de los modelos de IA. En 2024, investigadores de la Universidad de Texas mostraron cómo contenido malicioso en documentos referenciados puede influir en los resultados del modelo y seguir afectándolos incluso tras eliminar dichos documentos.
  • Inversión y extracción de modelos: Estos ataques permiten a los adversarios reconstruir datos sensibles de entrenamiento o replicar modelos propietarios. En la práctica, incluyen la recuperación de imágenes de pacientes de sistemas diagnósticos y la reconstrucción de grabaciones privadas de voz y textos internos a partir de modelos de lenguaje.
  • Ataques de evasión: Al hacer cambios mínimos, a menudo imperceptibles, en los datos de entrada, los atacantes logran que los modelos de IA generen resultados erróneos. Por ejemplo, investigadores engañaron al sistema de visión de un vehículo autónomo para que confundiera una señal de stop con una de límite de velocidad al añadir pegatinas que pasaban desapercibidas.
  • Inyección de indicaciones: Los grandes modelos de lenguaje (LLM) pueden ser manipulados mediante entradas diseñadas para alterar su comportamiento. En un caso, un chatbot impulsado por ChatGPT usado en concesionarios de Chevrolet fue engañado para aceptar vender un coche por 1 dólar, lo que expuso riesgos tanto legales como reputacionales.

Estas amenazas no son hipotéticas. Actúan ahora mismo y ya comprometen la seguridad y confiabilidad de la IA en múltiples sectores.

Construir una estrategia sólida de defensa ante la IA

Para superar estos retos, debes adoptar una estrategia de defensa completa que cubra tanto la ciberseguridad general como los riesgos particulares de la IA. Estos cinco pasos te ayudarán a proteger tus sistemas de IA:

  1. Refuerza la gobernanza de datos
    Crea un inventario claro de activos de IA, incluidos modelos, APIs y conjuntos de datos de entrenamiento, y aplica políticas estrictas de control de acceso. Los datos son la base de la IA, y debes proteger su integridad en cada nivel.
  2. Prueba de forma continua
    Supera las revisiones de código tradicionales e incorpora pruebas adversarias y ejercicios de red teaming. Estos métodos revelan vulnerabilidades como la inversión de modelos y la inyección de comandos antes de que los atacantes las aprovechen.
  3. Adopta un diseño que priorice la privacidad
    Incorpora cifrado, minimización de datos y técnicas de privacidad diferencial. Estas medidas reducen el riesgo de exposición de datos sensibles, incluso en caso de una brecha.
  4. Adopta una arquitectura de confianza cero
    Aplica una filosofía de “nunca confiar, siempre verificar” en todos los sistemas de IA. Concede solo el acceso imprescindible a cada componente y usuario, y verifica con rigor toda actividad.
  5. Supervise el comportamiento de la IA en tiempo real
    Implante herramientas y sistemas que detecten anomalías en el comportamiento del modelo o en los patrones de entrada. Controle aspectos como llamadas API excesivas, indicaciones sospechosas o resultados anormales, ya que pueden indicar amenazas activas.

El enfoque de F5 en la seguridad de la IA

A medida que más organizaciones adoptan entornos híbridos y multinube, F5 ofrece, a través de nuestra Plataforma de entrega y seguridad de aplicaciones (ADSP), capacidades de seguridad nativas de IA diseñadas para proteger la infraestructura moderna.

Como parte de esta plataforma, F5 AI Gateway defiende contra la inyección de prompts y la fuga de datos al inspeccionar y enrutar de forma inteligente las solicitudes LLM. Las soluciones avanzadas de seguridad API, disponibles mediante F5 Distributed Cloud API Security y NGINX App Protect, protegen tus APIs contra el uso indebido, la exfiltración y el abuso.

Como parte de F5 ADSP, F5 Distributed Cloud Bot Defense emplea aprendizaje automático para identificar y bloquear amenazas automatizadas, como el credential stuffing, con muy pocos falsos positivos. Las soluciones F5 BIG-IP Advanced WAF protegen aplicaciones y API, aliviando las tareas de seguridad en las GPU y mejorando el rendimiento en cargas de trabajo intensivas en IA.

Además, la arquitectura de referencia de IA de F5 te ofrece un diseño seguro y fiable para la infraestructura de IA en entornos híbridos y multinube. En F5 colaboramos con innovadores líderes en IA, como Intel, Red Hat, MinIO y Google Cloud Platform, entre otros muchos, para ayudarte a escalar de forma segura y eficiente.

Reflexiones finales: IA segura, futuro protegido

La IA está transformando todas las industrias que toca, pero su potencial trae riesgos sin precedentes. Mientras las amenazas se vuelven más sofisticadas, debes actuar con rapidez y visión, adoptando herramientas proactivas, una arquitectura más inteligente y protección basada en políticas.

Debemos integrar la seguridad de la IA en la esencia de la estrategia empresarial. Al combinar de forma adecuada regulación, tecnología y cultura, apoyándonos en marcos consolidados como el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología de EE. UU., y con plataformas como F5 ADSP, podrás aprovechar todo el potencial de la IA y protegerte de sus riesgos más graves.

La era de la IA ya está aquí. Ahora es el momento de protegerla.

Participa en la mesa redonda de Black Hat

Si vas a estar en Las Vegas esta semana para Black Hat USA 2025, acompaña al CISO de F5 Field, Chuck Herrin, y a otros expertos en un panel durante AI Summit mientras abordan cómo reforzar las defensas digitales en la era de la IA

Además, visita nuestra web para conocer más sobre las soluciones empresariales de entrega y seguridad con IA de F5.