Explore los riesgos de seguridad y los retos de optimización para preparar un enfoque equilibrado de las aplicaciones basadas en IA generativa.
La IA generativa (o GenAI) puede producir de forma autónoma nuevos contenidos, como texto, imágenes o audio, aprendiendo de los patrones y ejemplos de los datos existentes. Aprovecha los modelos de aprendizaje profundo para generar resultados diversos y contextualmente pertinentes, emulando la creatividad y la capacidad de resolución de problemas de los seres humanos.
Los particulares y las organizaciones utilizan la IA generativa para una amplia variedad de usos y aplicaciones, como la creación de contenidos, el procesamiento del lenguaje natural y la síntesis de datos. En la creación de contenidos, ayuda a generar desde poesía, ensayos académicos y materiales de marketing hasta imágenes, vídeo, música y código informático. En el campo del procesamiento del lenguaje natural, la IA generativa mejora los chatbots y la traducción de idiomas, y permite la síntesis de grandes cantidades de datos para impulsar la creatividad en el diseño, el desarrollo y la creación de prototipos de productos. La implantación de aplicaciones de IA generativa en una organización puede ayudar a los trabajadores humanos contribuyendo a una toma de decisiones mejor fundamentada y a una mayor eficiencia operativa, lo que se traduce en una mayor rentabilidad y crecimiento empresarial.
Sin embargo, la IA generativa también plantea importantes preocupaciones éticas y de seguridad , incluido el potencial de sesgo, mayores ciberataques y riesgos para la privacidad. Por ejemplo, la IA generativa puede utilizar modelos de lenguaje grandes (LLM) que se entrenan a partir de contenido extraído sistemáticamente de Internet, incluidos libros, publicaciones, sitios web y artículos en línea. Los modelos generativos aprenden de los datos de entrenamiento y, si los datos utilizados están sesgados, el modelo puede perpetuar e incluso amplificar los sesgos existentes en sus resultados. Además, la IA generativa puede generar inadvertidamente información engañosa o falsa (llamada alucinación), lo que lleva a la propagación de información errónea. Los actores maliciosos también pueden emplear GenAI para difundir y ajustar propaganda que puede conducir al malestar social. En la actualidad, los actores maliciosos suelen utilizar la IA generativa para crear deepfakes, contenido realista pero manipulado que puede ser engañoso o malicioso. Los deepfakes se pueden utilizar para el robo de identidad, la ingeniería social o ataques de phishing, la difusión de información falsa o la creación de contenido engañoso que representa una amenaza para las personas y la sociedad. Los mercados de la dark web ahora ofrecen una herramienta de inteligencia artificial FraudGPT que se puede utilizar para crear correos electrónicos de phishing, crear malware indetectable, generar páginas de phishing, identificar sitios web vulnerables e incluso ofrecer tutoriales sobre técnicas de piratería.
Los contenidos utilizados para entrenar a los LLM, potencialmente disponibles para su uso sin el consentimiento adecuado, también pueden incluir información personal, sensible o protegida por derechos de autor o propiedad intelectual. Dado que toda esta información privada forma parte de los contenidos de los que se nutre la IA a medida que genera contenidos, existe un riesgo muy real de que los resultados revelen de manera involuntaria datos sensibles o información privada.
Es posible que los proveedores de IA generativa no ofrezcan a las personas u organizaciones la posibilidad de confirmar si sus datos personales o de propiedad se han almacenado o utilizado con fines de formación, o de solicitar su eliminación, en virtud de las directivas sobre el «derecho al olvido» o el «derecho de supresión» de normativas gubernamentales como el Reglamento General de Protección de Datos (RGPD) de la UE. La formación en IA generativa también implica a menudo la agregación y utilización de datos de diferentes regiones o países, lo que puede dar lugar a situaciones que comprometan potencialmente la normativa sobre soberanía de datos.
La IA generativa tiene múltiples aplicaciones para organizaciones e industrias, y la incorporación juiciosa de IA generativa en los flujos de trabajo adecuados puede ayudar a las empresas a obtener una ventaja competitiva. Estas aplicaciones incluyen:
La seguridad de la IA generativa es un conjunto de prácticas y medidas implementadas para abordar los posibles riesgos y desafíos de seguridad asociados con el desarrollo, la implementación y el uso de aplicações basadas en GenAI. A medida que estas tecnologías se vuelven más omnipresentes y sofisticadas, las preocupaciones relacionadas con la seguridad se vuelven cada vez más importantes, en particular porque las cargas de trabajo de IA se han convertido en una superficie de ataque principal para los ciberdelincuentes. Para un análisis profundo de los riesgos de seguridad involucrados en la implementación y administración de aplicações GenAI, revise el OWASP Top 10 for Large Language Model Aplicações , que tiene como objetivo generar conciencia sobre sus vulnerabilidades, sugiere estrategias de remediación y busca mejorar la postura de seguridad de las aplicações LLM.
Si bien GenAI puede parecer extremadamente poderoso y casi mágico , aprovecha parte de la misma infraestructura, interfaces y componentes de software que las cargas de trabajo tradicionales y, por lo tanto, comparte los mismos riesgos, como ataques de inyección y ataques que eluden controles de autenticación y autorización débiles. Se requiere una infraestructura confiable, de alto rendimiento y segura para el funcionamiento eficaz de modelos sofisticados de IA generativa.
Los ataques a la infraestructura también incluyen la denegación de servicio (DoS) , en la que los atacantes saturan los recursos de hardware, como CPU, memoria o almacenamiento, para interrumpir la ejecución de cargas de trabajo de IA generativa. Estos ataques de agotamiento de recursos pueden provocar un rendimiento degradado o inestabilidad del sistema, lo que afecta la disponibilidad y confiabilidad del sistema de IA y compromete la capacidad del modelo para aprender y responder a las indicaciones del usuario.
El acceso no autorizado a la infraestructura del sistema de IA también es una amenaza importante para los flujos de trabajo de IA generativa, ya que puede afectar a la confidencialidad e integridad del sistema. Las intrusiones en la infraestructura del sistema pueden dar lugar a actividades malintencionadas como el robo de datos, la interrupción del servicio o la inserción de código malintencionado, lo que no solo pone en riesgo la seguridad de los modelos y datos de IA, sino que también puede dar lugar a la generación y difusión de resultados inexactos o perjudiciales.
El punto de partida de cualquier aplicación de IA generativa son los datos de entrenamiento que los modelos de aprendizaje automático utilizan para reconocer patrones deseados, hacer predicciones y realizar tareas. Para que un LLM sea altamente capaz, los datos con los que se entrena deben abarcar una amplia y diversa gama de dominios, géneros y fuentes. Sin embargo, el proceso de entrenamiento de modelos —ya sea que emplee modelos preentrenados listos para usar o modelos a medida entrenados en conjuntos de datos personalizados— es vulnerable ante manipulaciones y ataques.
Los ataques adversariales involucran a actores maliciosos que manipulan intencionalmente los datos de entrada para engañar o comprometer el rendimiento de los modelos de IA generativos, un proceso que OWASP identifica como envenenamiento de datos de entrenamiento . También incluye la manipulación de datos para introducir vulnerabilidades, puertas traseras o sesgos que podrían comprometer la seguridad, la eficacia o el comportamiento ético del modelo. Estas vulnerabilidades también introducen vectores de ataque que los actores maliciosos pueden explotar para obtener acceso no autorizado a información confidencial. Las cadenas de suministro de modelos comprometidos pueden generar resultados sesgados o poco confiables, violaciones de la privacidad y la ejecución de código no autorizado. Esto es de especial preocupación para las aplicações GenAI, ya que emplean vastos ecosistemas de complementos.
Las aplicaciones de IA generativa emplean LLM que generan salidas basadas en conjuntos de datos de entrenamiento, redes neuronales y arquitectura de aprendizaje profundo para generar respuestas a las indicaciones de los usuarios. Los modelos de IA sirven de base para identificar los patrones, las estructuras y las relaciones dentro de los datos existentes que sirven para generar nuevas salidas basadas en esa comprensión.
Los modelos de IA son susceptibles a una variedad de ataques, incluidas inyecciones de indicaciones y otras amenazas de entrada que manipulan los LLM al ingresar indicaciones cuidadosamente diseñadas que hacen que el modelo ignore instrucciones anteriores o realice acciones no deseadas. Las inyecciones rápidas se encuentran entre las causas más frecuentes de desinformación y contenido falso generado por modelos de IA. Las aplicações GenAI también son susceptibles a vulnerabilidades como la falsificación de solicitud del lado del servidor (SSRF) , que permite a los atacantes realizar solicitudes no deseadas o acceder a recursos restringidos, y la ejecución remota de código (RCE) , que puede hacer que la aplicação ejecute código malicioso u otras acciones en el sistema subyacente.
La protección de los sistemas GenAI requiere un enfoque de seguridad de múltiples capas. Esto debería implicar protocolos de autenticación y autorización robustos , incluidos controles de acceso estrictos para garantizar que sólo el personal autorizado tenga acceso a los componentes críticos del sistema. Implementar una gestión proactiva de vulnerabilidades que incluya actualizaciones periódicas de software y monitoreo continuo para la detección temprana y prevención de intentos de intrusión. Para contrarrestar los ataques DoS, incorpore redundancia en el sistema, incluido el uso de servidores de respaldo y protocolos a prueba de fallas para garantizar la disponibilidad de procesamiento persistente. Los LLM también pueden estar sujetos a denegación de servicio, ya que las solicitudes del usuario generan tokens y los LLM tienen ventanas de contexto fijas, que pueden ser el objetivo en un intento de agotar los recursos del sistema.
Las organizaciones deben implementar procesos de verificación estrictos para verificar la cadena de suministro de datos de entrenamiento y seleccionar únicamente modelos previamente entrenados de fuentes confiables. Dado que los datos de baja calidad y los sesgos en los datos de entrenamiento pueden dificultar la capacidad del modelo para aprender representaciones precisas y producir resultados fiables, el preprocesamiento de los datos antes de incorporarlos a un modelo generativo es fundamental para una GenAI eficaz. El ajuste fino de los modelos también es vital en muchas industrias reguladas. Técnicas como la limpieza, normalización y aumento de datos, y la detección y mitigación de sesgos pueden ayudar a prevenir errores y envenenamiento de datos.
Implemente controles de acceso robustos, métodos de cifrado y prácticas de implementación seguras (incluido el aislamiento de la red y configuraciones de firewall adecuadas) para proteger los modelos de IA generativa de posibles amenazas a la seguridad. Para evitar inyecciones rápidas, emplee técnicas como la desinfección rápida, la validación de entrada y el filtrado rápido para garantizar que el modelo no sea manipulado por entradas creadas con fines malintencionados. Los riesgos de ejecución de código no autorizado se pueden reducir empleando prácticas de codificación segura, realizando revisiones de código exhaustivas y utilizando defensas en tiempo de ejecución como el sandbox de código. La inyección rápida representa uno de los riesgos más graves y complicados de las aplicações GenAI.
Debido a que el procesamiento de GenAI puede consumir muchos recursos, optimizar los modelos de IA generativa para mejorar el rendimiento y la eficiencia es un paso importante para lograr que los modelos sean más rápidos, más escalables y energéticamente eficientes.
Los entornos multicloud se han convertido en la base de las aplicações impulsadas por IA debido a su capacidad de conectar cargas de trabajo de IA y complementos de ecosistemas en entornos distribuidos. Las redes multicloud (MCN) brindan la flexibilidad de escalar dinámicamente los recursos hacia arriba o hacia abajo según las demandas computacionales de las cargas de trabajo de IA generativa, incluidos aceleradores de hardware como unidades de procesamiento gráfico (GPU), con recursos de diferentes proveedores de nube integrados en el procesamiento de datos para optimizar el rendimiento y minimizar las demoras. La implementación de modelos GenAI en múltiples regiones de la nube permite la distribución geográfica del procesamiento, reduce la latencia y mejora los tiempos de respuesta, lo que es particularmente importante para aplicações de IA distribuidas en tiempo real o interactivas. La IA de borde está surgiendo como un método invaluable para mejorar la experiencia del usuario. La distribución regional de los modelos GenAI también puede permitir a las organizaciones almacenar y procesar datos de conformidad con los requisitos de soberanía de datos.
La plataforma de orquestación de contenedores Kubernetes es el estándar de facto para ejecutar cargas de trabajo GenAI y proporciona la infraestructura para ejecutar y escalar modelos de IA en contenedores para garantizar una alta disponibilidad y una utilización eficiente de los recursos. Kubernetes actúa como un orquestador, administrando la implementación y el monitoreo de varios componentes dentro de la aplicação de IA, y asegurando que los modelos de IA, las canalizaciones de procesamiento de datos y otros servicios se puedan administrar y escalar de manera eficiente. Los controladores de ingreso y MCN son fundamentales debido a las diversas implementaciones de Kubernetes y la necesidad de aprovisionar cargas de trabajo de manera uniforme, dirigir el tráfico de forma segura y distribuir la inferencia.
Las API proporcionan el tejido conectivo para que varias partes de la aplicação de IA intercambien datos e instrucciones, lo que permite que diferentes componentes y servicios se comuniquen entre sí. Los ecosistemas de complementos GenAI, por ejemplo, están conectados a través de llamadas API. Las soluciones de ingreso de Kubernetes brindan capacidades integradas de equilibrio de carga, limitación de velocidad y control de acceso, distribuyendo de forma segura el tráfico entre múltiples pods para mejorar el rendimiento de procesamiento general de las cargas de trabajo de IA.
Equilibrar la velocidad y la calidad de los resultados en la optimización de la IA generativa suele implicar concesiones. Lograr resultados de alta calidad requiere modelos y cálculos más complejos, lo que incrementa el consumo de recursos, mientras que optimizar el rendimiento puede llevar a simplificaciones del modelo que impacten la calidad del contenido generado. Los modelos más complejos también demandan tiempos de entrenamiento más prolongados y generan inferencias más lentas, afectando tanto la velocidad del entrenamiento como el rendimiento de las aplicaciones en tiempo real. Esto resulta especialmente desafiante para los modelos de IA generativa que operan en entornos dinámicos, ya que requieren optimización continua para mantener el equilibrio entre calidad y rendimiento. Además de las GPU, las CPU y las DPU pueden emplearse en tareas de procesamiento, destacando la importancia de gestionar eficientemente el tráfico de datos y la agrupación de recursos.
La optimización de los modelos de IA generativa requiere la consideración equilibrada —y la combinación— de múltiples factores.
La poda de modelos implica identificar y eliminar parámetros redundantes o menos cruciales del modelo para reducir su tamaño y sus requisitos computacionales, con el objetivo de crear un modelo más compacto preservando el rendimiento. La cuantificación reduce los requisitos de memoria y la complejidad computacional de los modelos GenAI al representar valores numéricos con menor precisión de bits, como la conversión de números de punto flotante en representaciones de punto fijo o entero de menor precisión. Esto puede generar menores requisitos de memoria y una mayor eficiencia en la implementación y el almacenamiento de modelos.
El aprendizaje por transferencia es una técnica de aprendizaje automático en la que un modelo entrenado en una tarea se adapta para realizar otra tarea relacionada, lo que reduce significativamente el tiempo y los recursos computacionales necesarios para el entrenamiento, especialmente para modelos profundos y complejos. El aprendizaje por transferencia facilita la reutilización eficiente del conocimiento, lo que permite la optimización de modelos de IA generativos para aplicações específicas sin la necesidad de grandes recursos computacionales.
La distribución del entrenamiento y la inferencia del modelo entre múltiples procesadores, dispositivos o nubes optimiza el entrenamiento del modelo y la experiencia del usuario al explotar las capacidades de procesamiento paralelo. Además, adaptar la arquitectura del modelo y el proceso de entrenamiento para aprovechar las capacidades individuales del hardware (por ejemplo, la CPU o GPU específica en la que se ejecutará) puede optimizar el proceso de entrenamiento e inferencia para mejorar el rendimiento, especialmente si la inferencia se puede realizar cerca del usuario.
La IA generativa tiene el potencial de ofrecer importantes ventajas competitivas, pero para que las organizaciones aprovechen plenamente sus beneficios sin riesgos, deben tomar las medidas necesarias para optimizar y proteger las cargas de trabajo de IA en entornos diversos y distribuidos. Esto requiere no solo la mejora de la eficiencia de las cargas de trabajo de IA, sino también la gestión de complejos ecosistemas Kubernetes, la integración fluida y segura de API y la gestión eficaz de redes multinube.
F5 optimiza el rendimiento y la seguridad de las cargas de trabajo de IA modernas, lo que garantiza una distribución y protección coherentes de los datos y modelos de IA generativa en todo el entorno de aplicaciones distribuidas, incluidos los centros de datos, las nubes públicas, las nubes privadas, las nubes múltiples, Kubernetes nativo y el borde. F5 ofrece una estructura de datos unificada subyacente que admite la formación, el perfeccionamiento, la implementación y la gestión de modelos de IA generativa a escala, lo que garantiza una experiencia de usuario fluida y admite la toma de decisiones en tiempo real en aplicaciones impulsadas por IA.
F5 ofrece un conjunto de soluciones integradas de seguridad, entrega y optimización del rendimiento que reducen la complejidad de la IA generativa a la vez que proporcionan una escala y un rendimiento predecibles, con visibilidad y gestión centralizadas a través de un único panel de control.
Al optimizar la eficiencia, reducir la latencia y mejorar los tiempos de respuesta, las tecnologías de F5 ayudan a las organizaciones a obtener de forma segura los beneficios de la IA generativa, al tiempo que garantizan una experiencia de usuario fluida y admiten la flexibilidad para implementar cargas de trabajo de IA en cualquier lugar.
RESUMEN DE LA SOLUCIÓN
Distribuya, optimice y proteja sus cargas de trabajo de IA con F5 ›