Explore los riesgos de seguridad y los retos de optimización para preparar un enfoque equilibrado de las aplicaciones basadas en IA generativa.
La IA generativa (o GenAI) puede producir de forma autónoma nuevos contenidos, como texto, imágenes o audio, aprendiendo de los patrones y ejemplos de los datos existentes. Aprovecha los modelos de aprendizaje profundo para generar resultados diversos y contextualmente pertinentes, emulando la creatividad y la capacidad de resolución de problemas de los seres humanos.
Los particulares y las organizaciones utilizan la IA generativa para una amplia variedad de usos y aplicaciones, como la creación de contenidos, el procesamiento del lenguaje natural y la síntesis de datos. En la creación de contenidos, ayuda a generar desde poesía, ensayos académicos y materiales de marketing hasta imágenes, vídeo, música y código informático. En el campo del procesamiento del lenguaje natural, la IA generativa mejora los chatbots y la traducción de idiomas, y permite la síntesis de grandes cantidades de datos para impulsar la creatividad en el diseño, el desarrollo y la creación de prototipos de productos. La implantación de aplicaciones de IA generativa en una organización puede ayudar a los trabajadores humanos contribuyendo a una toma de decisiones mejor fundamentada y a una mayor eficiencia operativa, lo que se traduce en una mayor rentabilidad y crecimiento empresarial.
Sin embargo, la IA generativa también plantea significativos problemas éticos y de seguridad, como los sesgos, el incremento de ciberataques y los riesgos para la privacidad. Por ejemplo, la IA generativa puede emplear grandes modelos lingüísticos (LLM) que se entrenan con contenidos extraídos de Internet, como libros, mensajes, sitios web y artículos. Los modelos generativos aprenden de estos datos y, si estos están sesgados, el modelo puede perpetuar e incluso amplificar esos sesgos en sus resultados. Además, la IA generativa puede producir involuntariamente información errónea o falsa (denominada alucinación), lo que contribuye a la propagación de desinformación. Los actores malintencionados también pueden aprovechar la IA generativa para difundir propaganda o manipularla para generar conflictos sociales. Además, es común que los delincuentes utilicen esta tecnología para crear deepfakes, contenidos realistas pero manipulados, que pueden ser utilizados en fraudes como el robo de identidad, ingeniería social, ataques de phishing o la difusión de información falsa, poniendo en peligro tanto a individuos como a la sociedad. Los mercados en la web oscura ahora disponen de herramientas como FraudGPT, que permiten a los cibercriminales elaborar correos de «spear-phishing», crear malware indetectable, generar sitios de phishing, identificar vulnerabilidades en páginas web e incluso acceder a tutoriales sobre técnicas de hacking.
Los contenidos utilizados para entrenar a los LLM, potencialmente disponibles para su uso sin el consentimiento adecuado, también pueden incluir información personal, sensible o protegida por derechos de autor o propiedad intelectual. Dado que toda esta información privada forma parte de los contenidos de los que se nutre la IA a medida que genera contenidos, existe un riesgo muy real de que los resultados revelen de manera involuntaria datos sensibles o información privada.
Es posible que los proveedores de IA generativa no ofrezcan a las personas u organizaciones la posibilidad de confirmar si sus datos personales o de propiedad se han almacenado o utilizado con fines de formación, o de solicitar su eliminación, en virtud de las directivas sobre el «derecho al olvido» o el «derecho de supresión» de normativas gubernamentales como el Reglamento General de Protección de Datos (RGPD) de la UE. La formación en IA generativa también implica a menudo la agregación y utilización de datos de diferentes regiones o países, lo que puede dar lugar a situaciones que comprometan potencialmente la normativa sobre soberanía de datos.
La IA generativa tiene múltiples aplicaciones para organizaciones e industrias, y la incorporación juiciosa de IA generativa en los flujos de trabajo adecuados puede ayudar a las empresas a obtener una ventaja competitiva. Estas aplicaciones incluyen:
La seguridad de la IA generativa es un conjunto de prácticas y medidas implementadas para hacer frente a los posibles riesgos de seguridad y desafíos asociados con el desarrollo, implementación y uso de aplicaciones basadas en IA generativa. A medida que estas tecnologías se vuelven más omnipresentes y sofisticadas, las preocupaciones relacionadas con la seguridad adquieren una mayor relevancia, sobre todo porque las cargas de trabajo de IA se han convertido en una de las principales superficies de ataque para los ciberdelincuentes. Para un análisis exhaustivo de los riesgos de seguridad asociados con la implementación y gestión de aplicaciones de IA generativa, revise OWASP Top 10 for Large Language Model Applications (Top 10 de OWASP para aplicaciones de grandes modelos lingüísticos), que tiene como objetivo concienciar sobre sus vulnerabilidades, sugiere estrategias de remediación y busca mejorar la postura de seguridad de las aplicaciones de LLM.
Aunque la IA generativa pueda parecer extremadamente potente y casi mágica, aprovecha algunas de las mismas infraestructuras, interfaces y componentes de software que las cargas de trabajo tradicionales y, por tanto, comparte los mismos riesgos, como los ataques de inyección y los ataques que eluden los controles de autenticación y autorización débiles. Para el funcionamiento eficaz de los sofisticados modelos de IA generativa se requiere una infraestructura fiable, de alto rendimiento y segura.
Los ataques a la infraestructura también incluyen la denegación de servicio (DoS), en la que los atacantes saturan los recursos de hardware, como CPU, memoria o almacenamiento, para interrumpir la ejecución de las cargas de trabajo de IA generativa. Estos ataques por agotamiento de recursos pueden provocar una degradación del rendimiento o inestabilidad del sistema, afectando a la disponibilidad y fiabilidad del sistema de IA y comprometiendo la capacidad del modelo para aprender y responder a las indicaciones del usuario.
El acceso no autorizado a la infraestructura del sistema de IA también es una amenaza importante para los flujos de trabajo de IA generativa, ya que puede afectar a la confidencialidad e integridad del sistema. Las intrusiones en la infraestructura del sistema pueden dar lugar a actividades malintencionadas como el robo de datos, la interrupción del servicio o la inserción de código malintencionado, lo que no solo pone en riesgo la seguridad de los modelos y datos de IA, sino que también puede dar lugar a la generación y difusión de resultados inexactos o perjudiciales.
El punto de partida de cualquier aplicación de IA generativa son los datos de entrenamiento que los modelos de aprendizaje automático utilizan para reconocer patrones deseados, hacer predicciones y realizar tareas. Para que un LLM sea altamente capaz, los datos con los que se entrena deben abarcar una amplia y diversa gama de dominios, géneros y fuentes. Sin embargo, el proceso de entrenamiento de modelos —ya sea que emplee modelos preentrenados listos para usar o modelos a medida entrenados en conjuntos de datos personalizados— es vulnerable ante manipulaciones y ataques.
Los ataques adversarios implican la manipulación intencionada de los datos de entrada por parte de actores malintencionados para engañar o comprometer el rendimiento de los modelos generativos de IA, un proceso que OWASP identifica como envenenamiento de datos de entrenamiento. También incluye la manipulación de datos para introducir vulnerabilidades, puertas traseras o sesgos que podrían comprometer la seguridad, la eficacia o el comportamiento ético del modelo. Estas vulnerabilidades introducen además vectores de ataque que los actores malintencionados pueden explotar para obtener acceso no autorizado a información confidencial. Las cadenas de suministro de modelos comprometidas pueden dar lugar a resultados sesgados o poco fiables, violaciones de la privacidad y la ejecución de código no autorizado. Esto es especialmente preocupante para las aplicaciones de IA generativa, ya que emplean vastos ecosistemas de complementos.
Las aplicaciones de IA generativa emplean LLM que generan salidas basadas en conjuntos de datos de entrenamiento, redes neuronales y arquitectura de aprendizaje profundo para generar respuestas a las indicaciones de los usuarios. Los modelos de IA sirven de base para identificar los patrones, las estructuras y las relaciones dentro de los datos existentes que sirven para generar nuevas salidas basadas en esa comprensión.
Los modelos de IA son susceptibles de sufrir diversos ataques, como inyecciones de instrucciones y otras amenazas de entrada que manipulan los LLM introduciendo instrucciones cuidadosamente elaboradas que hacen que el modelo ignore instrucciones anteriores o realice acciones no deseadas. Las inyecciones de instrucciones se encuentran entre las causas más frecuentes de desinformación y contenido falso generado por los modelos de IA. Las aplicaciones de IA generativa también son susceptibles de sufrir vulnerabilidades como server-side request forgery (SSRF), que permite a los atacantes realizar peticiones no deseadas o acceder a recursos restringidos, y la ejecución remota de código (RCE), que puede hacer que la aplicación ejecute código malintencionado u otras acciones en el sistema subyacente.
La protección de los sistemas de IA generativa requiere un enfoque de seguridad de varios niveles, que debe incluir protocolos sólidos de autenticación y autorización, incluidos estrictos controles de acceso para garantizar que solo el personal autorizado tenga acceso a los componentes críticos del sistema. Implemente una gestión de las vulnerabilidades proactiva que incluya actualizaciones periódicas del software y una supervisión continua para la detección temprana y la prevención de intentos de intrusión. Para contrarrestar los ataques de denegación de servicio, incorpore redundancia en el sistema, incluido el uso de servidores de copia de seguridad y protocolos a prueba de fallos para garantizar la disponibilidad persistente del procesamiento. Los LLM también pueden ser objeto de denegación de servicio, ya que las solicitudes de los usuarios generan tokens y los LLM tienen ventanas de contexto fijas, que pueden ser el objetivo de los intentos de agotar los recursos del sistema.
Las organizaciones deben poner en marcha procesos de investigación rigurosos para verificar la cadena de suministro de datos de entrenamiento y seleccionar únicamente modelos preentrenados de fuentes fiables. Dado que los datos de mala calidad y los sesgos en los datos de entrenamiento pueden obstaculizar la capacidad del modelo para aprender representaciones precisas y producir resultados fiables, el procesamiento de los datos previo a la introducción en un modelo generativo es fundamental para una IA generativa eficaz. El ajuste de los modelos también es vital en muchas industrias reguladas. Técnicas como la depuración, la normalización y el aumento de datos, y la detección y mitigación de sesgos pueden ayudar a prevenir errores y el envenenamiento de datos.
Implemente controles de acceso sólidos, métodos de cifrado y prácticas de implementación seguras, incluido el aislamiento de la red y la configuración adecuada del cortafuegos, para proteger los modelos de IA generativa de posibles amenazas a la seguridad. Para prevenir las inyecciones de comandos, es fundamental implementar técnicas como el saneamiento y validación de entradas, además del filtrado de comandos, para evitar que la manipulación del modelo con entradas malintencionadas. Los riesgos asociados a la ejecución no autorizada de código pueden minimizarse adoptando prácticas de codificación seguras, llevando a cabo exhaustivas revisiones de código y empleando defensas en tiempo de ejecución, como el sandboxing. La inyección de comandos es uno de los riesgos más graves y complejos en las aplicaciones de inteligencia artificial generativa.
Dado que el procesamiento de IA generativa puede consumir muchos recursos, la optimización de los modelos de IA generativa para mejorar el rendimiento y la eficiencia es un paso importante para conseguir modelos más rápidos, escalables y eficientes desde el punto de vista energético.
Los entornos multinube se han consolidado como la base para aplicaciones impulsadas por inteligencia artificial, gracias a su capacidad para conectar cargas de trabajo de IA y complementos del ecosistema en entornos distribuidos. Las redes multinube (MCN) proporcionan la flexibilidad necesaria para escalar dinámicamente los recursos en función de las demandas computacionales de las cargas de trabajo de IA generativa. Esto incluye el uso de aceleradores de hardware, como las GPU, con recursos de distintos proveedores de nube integrados para optimizar el rendimiento y reducir los retrasos. La implementación de modelos de IA generativa en varias regiones de nube permite distribuir geográficamente el procesamiento, disminuir la latencia y mejorar los tiempos de respuesta, aspectos clave para aplicaciones de IA distribuidas en tiempo real o interactivas. Además, la inteligencia artificial perimetral emerge como una herramienta esencial para mejorar la experiencia del usuario. La distribución regional de modelos de IA generativa también ofrece a las organizaciones la posibilidad de cumplir con los requisitos de soberanía de datos.
La plataforma de orquestación de contenedores Kubernetes se ha convertido en el estándar de facto para ejecutar cargas de trabajo de IA generativa, al proporcionar la infraestructura necesaria para ejecutar y escalar modelos de IA en contenedores, garantizando alta disponibilidad y una utilización eficiente de los recursos. Kubernetes actúa como orquestador, gestionando la implementación y supervisión de los diferentes componentes de la aplicación de IA, asegurando que los modelos, los conductos de procesamiento de datos y otros servicios puedan administrarse y escalarse de manera eficiente. Los controladores MCN e Ingress desempeñan un papel clave, dada la diversidad de implementaciones de Kubernetes y la necesidad de aprovisionar de manera uniforme las cargas de trabajo, dirigir de forma segura el tráfico y distribuir la inferencia.
Las API proporcionan el tejido conectivo para que varias partes de la aplicación de IA intercambien datos e instrucciones, permitiendo que diferentes componentes y servicios se comuniquen entre sí. Los ecosistemas de complementos de IA generativa, por ejemplo, se conectan a través de llamadas API. Las soluciones Kubernetes Ingress proporcionan capacidades integradas de equilibrio de carga, limitación de velocidad y control de acceso, distribuyendo de forma segura el tráfico a través de múltiples pods para mejorar el rendimiento general del procesamiento de las cargas de trabajo de IA.
Equilibrar la velocidad y la calidad de los resultados en la optimización de la IA generativa suele implicar concesiones. Lograr resultados de alta calidad requiere modelos y cálculos más complejos, lo que incrementa el consumo de recursos, mientras que optimizar el rendimiento puede llevar a simplificaciones del modelo que impacten la calidad del contenido generado. Los modelos más complejos también demandan tiempos de entrenamiento más prolongados y generan inferencias más lentas, afectando tanto la velocidad del entrenamiento como el rendimiento de las aplicaciones en tiempo real. Esto resulta especialmente desafiante para los modelos de IA generativa que operan en entornos dinámicos, ya que requieren optimización continua para mantener el equilibrio entre calidad y rendimiento. Además de las GPU, las CPU y las DPU pueden emplearse en tareas de procesamiento, destacando la importancia de gestionar eficientemente el tráfico de datos y la agrupación de recursos.
La optimización de los modelos de IA generativa requiere la consideración equilibrada —y la combinación— de múltiples factores.
La poda de modelos consiste en identificar y eliminar los parámetros redundantes o menos cruciales del modelo para reducir su tamaño y sus requisitos computacionales, con el objetivo de crear un modelo más compacto que mantenga el rendimiento. La cuantización reduce los requisitos de memoria y la complejidad computacional de los modelos de IA generativa al representar valores numéricos con una precisión de bits menor, como al convertir números de coma flotante en representaciones de punto fijo o enteros de menor precisión. Este proceso permite disminuir el uso de memoria y mejorar la eficiencia tanto en la implementación como en el almacenamiento de los modelos.
El aprendizaje por transferencia es una técnica de aprendizaje automático en la que un modelo entrenado en una tarea se adapta para realizar otra tarea relacionada, reduciendo significativamente el tiempo y los recursos computacionales necesarios para el entrenamiento, especialmente para modelos profundos y complejos. El aprendizaje por transferencia facilita la reutilización eficiente del conocimiento, permitiendo la optimización de modelos de IA generativa para aplicaciones específicas sin necesidad de grandes recursos computacionales.
La distribución el entrenamiento y la inferencia del modelo entre varios procesadores, dispositivos o nubes optimiza tanto el entrenamiento como la experiencia del usuario al aprovechar las capacidades de procesamiento en paralelo. Asimismo, adaptar la arquitectura del modelo y el proceso de entrenamiento a las características específicas del hardware (como la CPU o GPU en la que se ejecutará) permite optimizar estos procesos y mejorar el rendimiento, especialmente cuando la inferencia puede realizarse cerca del usuario.
La IA generativa tiene el potencial de ofrecer importantes ventajas competitivas, pero para que las organizaciones aprovechen plenamente sus beneficios sin riesgos, deben tomar las medidas necesarias para optimizar y proteger las cargas de trabajo de IA en entornos diversos y distribuidos. Esto requiere no solo la mejora de la eficiencia de las cargas de trabajo de IA, sino también la gestión de complejos ecosistemas Kubernetes, la integración fluida y segura de API y la gestión eficaz de redes multinube.
F5 optimiza el rendimiento y la seguridad de las cargas de trabajo de IA modernas, lo que garantiza una distribución y protección coherentes de los datos y modelos de IA generativa en todo el entorno de aplicaciones distribuidas, incluidos los centros de datos, las nubes públicas, las nubes privadas, las nubes múltiples, Kubernetes nativo y el borde. F5 ofrece una estructura de datos unificada subyacente que admite la formación, el perfeccionamiento, la implementación y la gestión de modelos de IA generativa a escala, lo que garantiza una experiencia de usuario fluida y admite la toma de decisiones en tiempo real en aplicaciones impulsadas por IA.
F5 ofrece un conjunto de soluciones integradas de seguridad, entrega y optimización del rendimiento que reducen la complejidad de la IA generativa a la vez que proporcionan una escala y un rendimiento predecibles, con visibilidad y gestión centralizadas a través de un único panel de control.
Al optimizar la eficiencia, reducir la latencia y mejorar los tiempos de respuesta, las tecnologías de F5 ayudan a las organizaciones a obtener de forma segura los beneficios de la IA generativa, al tiempo que garantizan una experiencia de usuario fluida y admiten la flexibilidad para implementar cargas de trabajo de IA en cualquier lugar.
DESCRIPCIÓN GENERAL DE LA SOLUCIÓN
Distribute, Optimize and Secure Your AI Workloads with F5 › (Distribuya, optimice y proteja sus cargas de trabajo de IA con F5)
ARTÍCULO TÉCNICO
Securing Generative AI: Defending the Future of Innovation and Creativity › (Garantizar la IA generativa: defender el futuro de la innovación y la creatividad)
SOLUCIONES
Power and Protect Your AI Journey › (Potencie y proteja su viaje con la IA)