Dan Sorensen
F5
(650) 228-4842
d.sorensen@f5.com
Holly Lancaster
Nosotros. Comunicaciones
(415) 547-7054
hluka@we-worldwide.com
La validación de Sesterce destaca la innovación colaborativa entre F5 y NVIDIA para ayudar a los clientes a aprovechar el valor de la entrega de aplicação con IA como prioridad.
PARÍS – F5 (NASDAQ: FFIV), líder mundial en la distribución y protección de todo tipo de aplicaciones y API, anunció hoy nuevas capacidades para F5 BIG-IP Next para Kubernetes aceleradas con DPU NVIDIA BlueField-3 y el marco de software NVIDIA DOCA , resaltadas por la implementación de validación del cliente Sesterce. Sesterce es un operador europeo líder especializado en infraestructuras de próxima generación e IA soberana, diseñadas para satisfacer las necesidades de computación acelerada e inteligencia artificial.
Al ampliar la plataforma de seguridad y entrega de aplicação F5 , BIG-IP Next para Kubernetes, que se ejecuta de forma nativa en las DPU NVIDIA BlueField-3, ofrece seguridad y gestión de tráfico de alto rendimiento para infraestructura de IA a gran escala, lo que permite lograr mayor eficiencia, control y rendimiento para las aplicações de IA. Junto con las atractivas ventajas de rendimiento anunciadas junto con la disponibilidad general a principios de este año, Sesterce ha completado con éxito la validación de la solución F5 y NVIDIA en una serie de capacidades clave, incluidas las siguientes áreas:
- Rendimiento mejorado, multitenencia y seguridad para cumplir con las expectativas de nivel de nube, mostrando inicialmente una mejora del 20 % en la utilización de la GPU.
- Integración con NVIDIA Dynamo y KV Cache Manager para reducir la latencia en el razonamiento de sistemas de inferencia de modelos de lenguaje grandes (LLM) y optimización de GPU y recursos de memoria.
- Enrutamiento LLM inteligente en DPU BlueField, que se ejecuta de manera eficaz con microservicios NVIDIA NIM para cargas de trabajo que requieren múltiples modelos, brindando a los clientes lo mejor de todos los modelos disponibles.
- Escalabilidad y protección del Protocolo de contexto de modelo (MCP), incluidas capacidades de proxy inverso y protecciones para LLM más escalables y seguros, lo que permite a los clientes utilizar de forma rápida y segura la potencia de los servidores MCP.
- Potente capacidad de programación de datos con sólidas capacidades F5 iRules , lo que permite una rápida personalización para soportar aplicações de IA y requisitos de seguridad en evolución.
“La integración entre F5 y NVIDIA fue tentadora incluso antes de que realizáramos ninguna prueba”, afirmó Youssef El Manssouri, CEO y cofundador de Sesterce. “Nuestros resultados subrayan los beneficios del equilibrio de carga dinámico de F5 con el ingreso y egreso de Kubernetes de alto volumen en entornos de IA. Este enfoque nos permite distribuir el tráfico de manera más eficiente y optimizar el uso de nuestras GPU, al tiempo que nos permite brindar valor adicional y único a nuestros clientes. “Nos complace ver el respaldo de F5 para un número cada vez mayor de casos de uso de NVIDIA, incluido el multi-tenancy mejorado, y esperamos una mayor innovación entre las empresas para respaldar la infraestructura de IA de próxima generación”.
Los aspectos más destacados de las nuevas capacidades de la solución incluyen:
Con esta solución colaborativa, las tareas simples relacionadas con IA se pueden enrutar a LLM menos costosos y livianos para respaldar la IA generativa y reservar modelos avanzados para consultas complejas. Este nivel de inteligencia personalizable también permite que las funciones de enrutamiento aprovechen los LLM específicos del dominio, mejorando la calidad de los resultados y mejorando significativamente las experiencias de los clientes. La gestión avanzada del tráfico de F5 garantiza que las consultas se envíen al LLM más adecuado, lo que reduce la latencia y mejora el tiempo hasta el primer token.
“Las empresas implementan cada vez más múltiples LLM para potenciar experiencias de IA avanzadas, pero enrutar y clasificar el tráfico LLM puede consumir muchos recursos computacionales, lo que degrada el rendimiento y la experiencia del usuario”, afirmó Kunal Anand, director de Innovación de F5. “Al programar la lógica de enrutamiento directamente en las DPU NVIDIA BlueField-3, F5 BIG-IP Next para Kubernetes es el enfoque más eficiente para entregar y proteger el tráfico LLM. Esto es sólo el comienzo. Nuestra plataforma abre nuevas posibilidades para la infraestructura de IA y estamos entusiasmados de profundizar la innovación conjunta con NVIDIA a medida que la IA empresarial continúa escalando”.
A principios de este año, se presentó NVIDIA Dynamo , que proporciona un marco complementario para implementar modelos de razonamiento e IA generativos en entornos distribuidos a gran escala. NVIDIA Dynamo simplifica la complejidad de ejecutar inferencias de IA en entornos distribuidos al orquestar tareas como programación, enrutamiento y administración de memoria para garantizar un funcionamiento perfecto en cargas de trabajo dinámicas. La descarga de operaciones específicas de las CPU a las DPU BlueField es uno de los principales beneficios de la solución combinada de F5 y NVIDIA. Con F5, la función Dynamo KV Cache Manager puede enrutar solicitudes de manera inteligente en función de la capacidad, utilizando el almacenamiento en caché de clave-valor (KV) para acelerar los casos de uso de IA generativa al acelerar los procesos basados en la retención de información de operaciones anteriores (en lugar de requerir un recálculo que consume muchos recursos). Desde una perspectiva de infraestructura, las organizaciones que almacenan y reutilizan datos de caché KV pueden hacerlo a una fracción del costo de usar memoria GPU para este propósito.
“BIG-IP Next para Kubernetes acelerado con DPU NVIDIA BlueField-3 brinda a las empresas y proveedores de servicios un único punto de control para enrutar eficientemente el tráfico a las fábricas de IA para optimizar la eficiencia de la GPU y acelerar el tráfico de IA para la ingesta de datos, el entrenamiento de modelos, la inferencia, RAG y la IA agente”, dijo Ash Bhalgat, director sénior de Soluciones de seguridad y redes de IA, Ecosistema y Marketing en NVIDIA. “Además, el soporte de F5 para múltiples inquilinos y la capacidad de programación mejorada con iRules continúan brindando una plataforma ideal para la integración continua y la incorporación de funciones tales como soporte para NVIDIA Dynamo Distributed KV Cache Manager”.
El Protocolo de Contexto de Modelo (MCP) es un protocolo abierto desarrollado por Anthropic que estandariza cómo las aplicações proporcionan contexto a los LLM. La implementación de la solución combinada de F5 y NVIDIA frente a los servidores MCP permite que la tecnología de F5 actúe como proxy inverso, reforzando así las capacidades de seguridad de las soluciones MCP y los LLM que soportan. Además, la capacidad de programación total de datos que permite F5 iRules promueve una rápida adaptación y resiliencia a los requisitos de protocolo de IA en rápida evolución, así como una protección adicional contra los riesgos de ciberseguridad emergentes.
“Las organizaciones que implementan IA agentica recurren cada vez más a las implementaciones de MCP para mejorar la seguridad y el rendimiento de los LLM”, afirmó Greg Schoeny, vicepresidente sénior y proveedor de servicios globales de World Wide Technology. Al incorporar seguridad y gestión avanzada del tráfico a amplios entornos de Kubernetes, F5 y NVIDIA ofrecen conjuntos de funciones de IA integradas, junto con capacidades de programabilidad y automatización, que actualmente no vemos en ningún otro lugar del sector.
F5 BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3 ya está disponible de forma general. Para conocer detalles adicionales sobre la tecnología y los beneficios de implementación, visite www.f5.com y visite las empresas en NVIDIA GTC Paris, parte del evento VivaTech 2025 de esta semana. También se pueden encontrar más detalles en un blog complementario de F5 .
Fundada en 2018, Sesterce es un operador europeo líder especializado en computación de alto rendimiento e infraestructura de inteligencia artificial . Con control total sobre la cadena de valor, la empresa ofrece soluciones flexibles, soberanas y sostenibles adaptadas a las necesidades de nuevas empresas, grandes empresas e instituciones académicas. Sesterce aspira a convertirse en el líder europeo en infraestructura de IA, permitiendo a los innovadores escalar y al mismo tiempo manteniendo estándares éticos y ambientales.
En este espíritu, Sesterce también ofrece una capa de servicio "nativa de IA" sobre su infraestructura: proporciona preparación de datos de alto nivel que ingiere y transforma flujos heterogéneos en tiempo real, brinda soporte dedicado para modelos de lenguaje muy grandes (VLLM) a organizaciones que desarrollan o implementan modelos a gran escala y proporciona soluciones de inteligencia empresarial modulares diseñadas tanto para empresas emergentes nativas de IA como para empresas establecidas. Además, Sesterce garantiza la privacidad y el control de extremo a extremo con entornos privados de IA e inferencia totalmente compatibles con los estándares europeos de soberanía y confidencialidad.
F5, Inc. (NASDAQ: FFIV) es el líder mundial en la entrega y seguridad de todas las aplicaciones. Con el respaldo de tres décadas de experiencia, F5 ha creado la plataforma líder del sector —F5 Aplicação Delivery and Security Platform (ADSP)— para entregar y proteger cada aplicación y cada API, en cualquier lugar: local, en la nube, en el borde y en entornos híbridos y multicloud. F5 se compromete a innovar y asociarse con las organizaciones más grandes y avanzadas del mundo para ofrecer experiencias digitales rápidas, disponibles y seguras. Juntos, nos ayudamos mutuamente a prosperar y dar vida a un mundo digital mejor.
Para obtener más información, visite f5.com
Explore la investigación de amenazas de F5 Labs en f5.com/labs
Siga para obtener más información sobre F5, nuestros socios y tecnologías: Blog | LinkedIn | X | YouTube | Instagram | Facebook
F5, BIG-IP, BIG-IP Next e iRules son marcas comerciales, marcas de servicio o nombres comerciales de F5, Inc., en los EE. UU. y otros países. Todos los demás nombres de productos y empresas aquí mencionados pueden ser marcas comerciales de sus respectivos propietarios.
# # #
Este comunicado de prensa puede contener afirmaciones de carácter prospectivo relativas a acontecimientos o resultados financieros futuros que entrañen riesgos e incertidumbres. Tales afirmaciones pueden identificarse por términos como "puede", "será", "debería", "espera", "planea", "anticipa", "cree", "estima", "predice", "potencial" o "continúa", o el negativo de tales términos o términos comparables. Estas afirmaciones son sólo predicciones y los resultados reales podrían diferir sustancialmente de los previstos en ellas en función de una serie de factores, incluidos los señalados en los documentos presentados por la empresa a la SEC.