BLOG

IA sombra: El riesgo silencioso de seguridad que acecha en tu empresa

Miniatura de Rachael Shah
Rachael Shah
Publicado el 16 de julio de 2025

La inteligencia artificial ha llegado para quedarse; no volveremos a la era anterior a 2010. Los avances en productividad, innovación y repercusión económica son tremendamente transformadores.

Pero junto a esos beneficios extraordinarios, surgen riesgos importantes para las organizaciones que adoptan la IA. Uno de los más urgentes es la IA en la sombra: el uso creciente de herramientas de IA por parte de los empleados sin que los líderes de TI lo conozcan o aprueben. Esta práctica emerge rápidamente como una amenaza relevante para la seguridad y el cumplimiento, aunque sigue siendo relativamente nueva y en constante evolución.

Shadow AI es una rápida evolución de Shadow IT, el conocido desafío donde los empleados introducen software, servicios en la nube o sistemas no autorizados dentro de la empresa. Mientras Shadow IT ya complica la gobernanza y la seguridad, Shadow AI añade un nivel nuevo y riesgoso de complejidad.

Algunos ejemplos de IA sombra:

  • Un ingeniero de software usa una cuenta personal de ChatGPT, Gemini o Copilot para generar código base, traducir idiomas, refactorizar código antiguo o escribir casos de prueba, y sin querer inserta código propietario en un modelo público. Ese código puede ser almacenado, registrado o divulgado. Aún peor, la salida creada por la IA podría incluir lógica insegura, API inventadas o código que incumple los términos de la licencia.
  • Un especialista en comunicaciones sube un memorando estratégico confidencial a una herramienta de IA para resumirlo o redactar un mensaje para clientes. Ahora que contenido propietario reside en servidores externos, TI no tiene control sobre él.
  • Un representante de ventas instala una extensión de Chrome que genera automáticamente correos de prospección con IA, conectándose tanto a su correo electrónico como al sistema CRM. ¿Qué riesgos conlleva? Puede haber fuga de datos, incumplimiento de políticas internas y violaciones a normativas como el GDPR o la Ley de Privacidad del Consumidor de California.

Estos ejemplos son solo el principio. Diariamente, surgen innumerables otros escenarios de IA en la sombra en distintos sectores. El alcance del problema es tan grande que Gartner® pronostica que “para 2027, el 75 % de los empleados adquirirá, modificará o creará tecnología fuera del control de TI — un aumento desde el 41 % en 2022. Por eso, los modelos operativos de ciberseguridad centralizados y jerárquicos no funcionarán. En cambio, los CISO deben transformar la ciberseguridad en una función ágil y centralizada que apoye a un amplio y federado grupo de expertos y equipos de colaboración distribuidos por toda la empresa. Así, escalamos la ciberseguridad hacia el perímetro de la empresa, acercándola al lugar donde se toman y ejecutan decisiones sobre tecnología y riesgos.” 1

Inyección de prompts y fuga de datos: preocupaciones principales

Aunque aún calculamos con precisión las pérdidas financieras causadas por la IA en la sombra, el daño potencial es evidente y sigue creciendo. Si no actúas ahora, tu organización corre el riesgo de sufrir incidentes graves, enfrentar riesgos regulatorios y perder la confianza de tus clientes.

Una de las vulnerabilidades más graves es la inyección de prompts, un ataque donde un usuario malintencionado manipula la entrada de la IA para evadir restricciones, filtrar datos sensibles o ejecutar acciones no deseadas. Los modelos de IA suelen confiar en la entrada por defecto, lo que los deja expuestos a este tipo de exploits. Una inyección de prompts exitosa puede engañar a la IA para que revele datos internos, corrompa procesos automatizados o comprometa los sistemas de toma de decisiones.

Otra preocupación crucial es la fuga de datos, especialmente de información personal identificable (PII), información sanitaria protegida (PHI), detalles bancarios y registros financieros, código fuente y propiedad intelectual, credenciales y claves de acceso, o registros de clientes.

El riesgo aumenta por la posibilidad de incumplir normativas. Utilizar IA sin autorización vulnera con facilidad estándares como GDPR, HIPAA, PCI DSS y la Ley Sarbanes-Oxley, lo que expone a tu empresa a sanciones y daños reputacionales.

Algunas empresas reaccionan con prohibiciones, pero ¿funciona realmente?

Para hacer frente a estos riesgos, algunas organizaciones han prohibido a sus empleados usar herramientas de IA generativa no autorizadas. Samsung, por ejemplo, fue una de las primeras en 2023 en vetar el uso de ChatGPT y otros chatbots con IA, debido a preocupaciones por posibles filtraciones de información interna sensible. Luego, varios bancos y otras empresas adoptaron restricciones o advertencias similares.

Sin embargo, la mayoría de los expertos de la industria recomienda no aplicar prohibiciones generales.

Por qué gobernar en lugar de prohibir es la mejor solución

Aunque los riesgos son reales, los analistas del sector aconsejan implementar políticas de prevención y marcos de gobernanza en lugar de prohibiciones absolutas.

Las prohibiciones suelen ser contraproducentes. Resultan difíciles de hacer cumplir, frecuentemente frenan la innovación y la motivación, y pueden llevar el uso de la IA a la clandestinidad, complicando aún más su detección y control.

Como comentó un líder de TI en una discusión de la comunidad de pares de Gartner sobre prohibir las herramientas de IA: “Las prohibiciones no funcionan. Incluso sin políticas, esa medida daña la innovación y transmite al personal y al mundo una imagen errónea de nuestra organización.”

Qué deben hacer las organizaciones en cambio

Aquí tienes algunas medidas prácticas de gobernanza que puedes implementar ya en tu organización:

  1. Define una política clara para el uso de IA
    Especifica qué herramientas están autorizadas, cómo gestionar los datos, qué casos de uso son aceptables y dónde se establecen límites. Aclara con precisión qué está permitido y por qué.
  2. Mantenga una lista validada de herramientas de IA
    Evalúe las herramientas en cuanto a privacidad de datos, seguridad y cumplimiento normativo. Impulse a los empleados a usar estas en lugar de plataformas no evaluadas. Por ejemplo, utilice versiones empresariales de herramientas como ChatGPT con registros y protecciones contra pérdida de datos, y adopte asistentes de IA internos integrados en las plataformas de la empresa.
  3. Forma a los empleados y genera conciencia
    Haz que el equipo entienda los riesgos, desde fugas de datos y contenido inventado hasta incumplimientos normativos. La mayoría de los malos usos no son intencionados.
  4. Supervisa y luego adapta
    Evalúa usar monitoreo (de forma ética y legal) para detectar accesos no autorizados. Responde educando, no castigando. Actualiza tus políticas constantemente conforme evolucionan las capacidades de la IA.

Próximamente: Tecnología de F5 para ayudarte a gestionar la inteligencia artificial oculta

¿Puede la tecnología proporcionar una solución escalable? Por supuesto.

F5 ha anunciado hoy la detección y prevención de fugas de datos para proteger las cargas de trabajo de IA, y lanzará en los próximos meses nuevas y potentes capacidades diseñadas para ayudarte a mitigar de forma integral el riesgo de Shadow AI—especialmente el uso no autorizado de herramientas de IA a través de canales cifrados (que es el estándar en la mayoría de las API de IA y plataformas SaaS).

Estate atento a próximos anuncios. Mientras tanto, consulta todas las novedades de F5 AI en nuestra página Accelerate AI.

GARTNER es una marca registrada y una marca de servicio de Gartner, Inc. y/o sus filiales en EE.UU. e internacionalmente y se utiliza aquí con permiso. Todos los derechos reservados.

1Gartner, Maverick Research: Los CISO deben transformar su papel o corren el riesgo de quedar obsoletos, 19 de junio de 2025