BLOG

Anuncio de la disponibilidad general de F5 BIG-IP Next para Kubernetes en las DPU NVIDIA BlueField-3

Imagen en miniatura de Ahmed Guetari
Ahmed Guetari
Publicado el 25 de abril de 2025

Hoy, F5 anuncia la disponibilidad general de F5 BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3 , lo que mejora la gestión de recursos del centro de datos en la nube de la fábrica de IA y al mismo tiempo logra un rendimiento óptimo de las aplicação de IA. La solución integrada aumenta la eficiencia de la infraestructura y ofrece redes de alto rendimiento, seguridad y gestión del tráfico para respaldar casos de uso innovadores, incluidas GPU como servicio (GPUaaS) y capacidades de inferencia.

La integración de BIG-IP Next para Kubernetes con las DPU NVIDIA BlueField-3 aborda los desafíos urgentes que enfrentan las organizaciones al implementar infraestructuras de IA a escala de nube. Las cargas de trabajo de IA a gran escala implican un procesamiento masivo de datos que requiere recursos informáticos de alto rendimiento para analizar, interpretar y extraer información en tiempo real. Esto coloca una presión considerable sobre la infraestructura de red tradicional, inhibiendo el rendimiento y creando riesgos de ineficiencia en el procesamiento y demoras en la inferencia.

Rendimiento en entornos que definen la industria

F5, NVIDIA y SoftBank colaboraron recientemente en una sesión en NVIDIA GTC 2025 para mostrar el valor de una solución combinada. Durante la sesión, SoftBank compartió conocimientos innovadores sobre cómo las organizaciones pueden potenciar las cargas de trabajo de IA nativas de la nube con un proxy de servicio acelerado por DPU para Kubernetes . La sesión presentó los cálculos y las métricas de rendimiento de SoftBank de su reciente prueba de concepto para F5 BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3. SoftBank logró un aumento del 18% en el rendimiento de HTTP (77 Gbps), una mejora de 11 veces en el tiempo hasta el primer byte (TTFB) y un asombroso aumento de 190 veces en la eficiencia energética de la red. Estos resultados resaltan el potencial transformador de la aceleración de DPU para entornos nativos de la nube modernos, impulsando un mejor rendimiento de los tokens y experiencias de usuario mejoradas durante la inferencia de IA.

Menor complejidad, rendimiento optimizado y mayor seguridad.

Las DPU NVIDIA BlueField-3 están diseñadas para las cargas de trabajo de infraestructura más exigentes, desde IA acelerada y redes inalámbricas 5G hasta nube híbrida y computación de alto rendimiento. La solución combinada aprovecha la plataforma de seguridad y entrega de aplicação de F5 para acelerar, proteger y optimizar el tráfico de datos a medida que fluye dentro y fuera de las infraestructuras de IA, lo que mejora enormemente el procesamiento eficiente de cargas de trabajo de IA a gran escala. Al ofrecer una gestión de tráfico optimizada, la solución permite un mayor rendimiento de la ingesta de datos y la utilización del servidor durante la inferencia de IA, lo que genera mejores experiencias para los usuarios de aplicaciones de IA.

BIG-IP Next para Kubernetes facilita significativamente la complejidad de integrar múltiples elementos de la infraestructura de IA empresarial al unificar las funciones de red, seguridad, gestión de tráfico y equilibrio de carga para brindar una visibilidad integral en entornos multicloud, con mayor capacidad de observación para las cargas de trabajo de IA. La solución admite funciones de seguridad críticas para arquitecturas de confianza cero, protección de API, prevención de intrusiones, cifrado y gestión de certificados. Con disponibilidad general, se ha agregado mitigación de denegación de servicio distribuida (DDoS) acelerada por hardware, junto con capacidades de firewall de borde, lo que promueve una protección cibernética más rápida y eficiente. La solución también automatiza el descubrimiento y la protección de los puntos finales de inferencia y entrenamiento de modelos de IA, lo que permite a las organizaciones aislar las aplicações de IA de amenazas específicas y, al mismo tiempo, reforzar la integridad y la soberanía de los datos.

Además, la integración de BIG-IP Next para Kubernetes y NVIDIA BlueField-3 DPU permite una arquitectura multiinquilino que puede alojar de forma segura a múltiples usuarios en los mismos clústeres de IA, al tiempo que mantiene separados sus cargas de trabajo, datos y tráfico de IA.

Nuevos y atractivos casos de uso para ayudar a los clientes a adoptar la IA.

Juntos, F5 y NVIDIA no solo mejoran la gestión y la eficiencia de la infraestructura, sino que también permiten una inferencia de IA más rápida y con mayor capacidad de respuesta para brindar casos de uso emergentes, como:

  • GPU como servicio (GPUaaS) proporciona acceso a pedido y basado en la nube a las GPU para una variedad de tareas informáticas, incluido el entrenamiento de modelos de IA, simulaciones científicas y renderizado. El servicio permite a las organizaciones alquilar recursos de computación de GPU de proveedores de la nube mediante pago por uso o suscripción, pagando por las GPU solo cuando las necesitan y maximizando la cantidad de computación de GPU que pueden obtener por cada dólar gastado. La integración de BIG-IP Next para Kubernetes con las DPU NVIDIA BlueField-3 permite una multitenencia segura con aislamiento granular de inquilinos, lo cual es fundamental para los escenarios de GPUaaS porque permite que varios usuarios u organizaciones compartan de manera segura y eficiente los recursos de la GPU mientras ejecutan cargas de trabajo simultáneas. Al dividir el servicio de GPU en múltiples instancias seguras, la multitenencia granular aísla diferentes inquilinos y cargas de trabajo para evitar fugas de datos y riesgos de seguridad. También permite la asignación dinámica de recursos, lo que garantiza que cada carga de trabajo reciba los recursos de red y GPU necesarios sin aprovisionamiento excesivo.
  • Servicios de inferencia , en los que las plataformas de IA especializadas basadas en la nube proporcionan entornos optimizados para proporcionar inferencias de manera eficiente en modelos de IA entrenados. A diferencia de GPUaaS, que proporciona potencia de GPU pura, los servicios de inferencia están optimizados para una implementación optimizada del modelo. Algunos ejemplos de estos servicios incluyen la operación de chatbots, la implementación de detección de fraude, la realización de investigaciones y la realización de tareas similares impulsadas por IA. Los servicios de inferencia también se utilizan para optimizar el reconocimiento de imágenes y los escenarios de conducción autónoma, junto con el procesamiento del lenguaje natural para asistentes de voz o análisis de sentimientos. BIG-IP Next para Kubernetes y NVIDIA BlueField-3 DPU maximizan el rendimiento de inferencia y reducen la latencia de extremo a extremo al ejecutar múltiples modelos simultáneamente. Los servicios de inferencia basados en la solución combinada de F5 y NVIDIA también pueden escalar dinámicamente los recursos para gestionar cargas de trabajo y demandas fluctuantes.

Tanto para GPUaaS como para los servicios de inferencia , la observabilidad granular es un requisito fundamental. BIG-IP Next para Kubernetes proporciona una vista centralizada y totalmente integrada que ofrece una gran visibilidad en todo el ecosistema de IA para monitorear el rendimiento y la resiliencia, con la capacidad de aplicar instantáneamente funciones de seguridad para hacer cumplir la privacidad de los datos, evitar el acceso no autorizado y aislar anomalías.

Para obtener más información, explore la página del producto o comuníquese con su equipo de cuenta de F5 para analizar BIG-IP Next para Kubernetes para la infraestructura de IA de su organización. El enfoque de F5 en la IA no termina aquí: explore cómo F5 protege y distribuye aplicaciones de IA en todas partes .