Hoy, F5 anuncia la disponibilidad general de F5 BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3 , lo que mejora la gestión de recursos del centro de datos en la nube de la fábrica de IA y al mismo tiempo logra un rendimiento óptimo de las aplicação de IA. La solución integrada aumenta la eficiencia de la infraestructura y ofrece redes de alto rendimiento, seguridad y gestión del tráfico para respaldar casos de uso innovadores, incluidas GPU como servicio (GPUaaS) y capacidades de inferencia.
La integración de BIG-IP Next para Kubernetes con las DPU NVIDIA BlueField-3 aborda los desafíos urgentes que enfrentan las organizaciones al implementar infraestructuras de IA a escala de nube. Las cargas de trabajo de IA a gran escala implican un procesamiento masivo de datos que requiere recursos informáticos de alto rendimiento para analizar, interpretar y extraer información en tiempo real. Esto coloca una presión considerable sobre la infraestructura de red tradicional, inhibiendo el rendimiento y creando riesgos de ineficiencia en el procesamiento y demoras en la inferencia.
F5, NVIDIA y SoftBank colaboraron recientemente en una sesión en NVIDIA GTC 2025 para mostrar el valor de una solución combinada. Durante la sesión, SoftBank compartió conocimientos innovadores sobre cómo las organizaciones pueden potenciar las cargas de trabajo de IA nativas de la nube con un proxy de servicio acelerado por DPU para Kubernetes . La sesión presentó los cálculos y las métricas de rendimiento de SoftBank de su reciente prueba de concepto para F5 BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3. SoftBank logró un aumento del 18% en el rendimiento de HTTP (77 Gbps), una mejora de 11 veces en el tiempo hasta el primer byte (TTFB) y un asombroso aumento de 190 veces en la eficiencia energética de la red. Estos resultados resaltan el potencial transformador de la aceleración de DPU para entornos nativos de la nube modernos, impulsando un mejor rendimiento de los tokens y experiencias de usuario mejoradas durante la inferencia de IA.
Las DPU NVIDIA BlueField-3 están diseñadas para las cargas de trabajo de infraestructura más exigentes, desde IA acelerada y redes inalámbricas 5G hasta nube híbrida y computación de alto rendimiento. La solución combinada aprovecha la plataforma de seguridad y entrega de aplicação de F5 para acelerar, proteger y optimizar el tráfico de datos a medida que fluye dentro y fuera de las infraestructuras de IA, lo que mejora enormemente el procesamiento eficiente de cargas de trabajo de IA a gran escala. Al ofrecer una gestión de tráfico optimizada, la solución permite un mayor rendimiento de la ingesta de datos y la utilización del servidor durante la inferencia de IA, lo que genera mejores experiencias para los usuarios de aplicaciones de IA.
BIG-IP Next para Kubernetes facilita significativamente la complejidad de integrar múltiples elementos de la infraestructura de IA empresarial al unificar las funciones de red, seguridad, gestión de tráfico y equilibrio de carga para brindar una visibilidad integral en entornos multicloud, con mayor capacidad de observación para las cargas de trabajo de IA. La solución admite funciones de seguridad críticas para arquitecturas de confianza cero, protección de API, prevención de intrusiones, cifrado y gestión de certificados. Con disponibilidad general, se ha agregado mitigación de denegación de servicio distribuida (DDoS) acelerada por hardware, junto con capacidades de firewall de borde, lo que promueve una protección cibernética más rápida y eficiente. La solución también automatiza el descubrimiento y la protección de los puntos finales de inferencia y entrenamiento de modelos de IA, lo que permite a las organizaciones aislar las aplicações de IA de amenazas específicas y, al mismo tiempo, reforzar la integridad y la soberanía de los datos.
Además, la integración de BIG-IP Next para Kubernetes y NVIDIA BlueField-3 DPU permite una arquitectura multiinquilino que puede alojar de forma segura a múltiples usuarios en los mismos clústeres de IA, al tiempo que mantiene separados sus cargas de trabajo, datos y tráfico de IA.
Juntos, F5 y NVIDIA no solo mejoran la gestión y la eficiencia de la infraestructura, sino que también permiten una inferencia de IA más rápida y con mayor capacidad de respuesta para brindar casos de uso emergentes, como:
Tanto para GPUaaS como para los servicios de inferencia , la observabilidad granular es un requisito fundamental. BIG-IP Next para Kubernetes proporciona una vista centralizada y totalmente integrada que ofrece una gran visibilidad en todo el ecosistema de IA para monitorear el rendimiento y la resiliencia, con la capacidad de aplicar instantáneamente funciones de seguridad para hacer cumplir la privacidad de los datos, evitar el acceso no autorizado y aislar anomalías.
Para obtener más información, explore la página del producto o comuníquese con su equipo de cuenta de F5 para analizar BIG-IP Next para Kubernetes para la infraestructura de IA de su organización. El enfoque de F5 en la IA no termina aquí: explore cómo F5 protege y distribuye aplicaciones de IA en todas partes .