COMMUNIQUÉ DE PRESSE

F5 étend ses performances, sa multi-location et ses capacités de sécurité pour un environnement d'IA en constante évolution grâce à NVIDIA.

Publié le 11 juin 2025
CONTACTS

Dan Sorensen
F5
(650) 228-4842
d.sorensen@f5.com

Holly Lancaster
Nous. Communications
(415) 547-7054
hluka@we-worldwide.com

La validation Sesterce met en évidence l'innovation collaborative entre F5 et NVIDIA pour aider les clients à adopter la valeur de la fourniture application axées sur l'IA

PARIS  F5 (NASDAQ : FFIV), leader mondial de la fourniture et de la sécurisation de chaque application et API, a annoncé aujourd'hui de nouvelles fonctionnalités pour F5 BIG-IP Next pour Kubernetes accélérées avec les DPU NVIDIA BlueField-3 et le framework logiciel NVIDIA DOCA , soulignées par le déploiement de validation du client Sesterce. Sesterce est un opérateur européen de premier plan spécialisé dans les infrastructures de nouvelle génération et l'IA souveraine, conçues pour répondre aux besoins de calcul accéléré et intelligence artificielle.

En étendant la plate-forme de sécurité et de distribution application F5 , BIG-IP Next pour Kubernetes exécuté en mode natif sur les DPU NVIDIA BlueField-3 offre une gestion du trafic et une sécurité hautes performances pour les infrastructures d'IA à grande échelle, libérant ainsi une efficacité, un contrôle et des performances accrus pour les applications d'IA. Parallèlement aux avantages de performances convaincants annoncés avec la disponibilité générale plus tôt cette année, Sesterce a terminé avec succès la validation de la solution F5 et NVIDIA dans un certain nombre de fonctionnalités clés, notamment les domaines suivants :

- Performances, multi-location et sécurité améliorées pour répondre aux attentes de niveau cloud, montrant initialement une amélioration de 20 % de l'utilisation du GPU.

- Intégration avec NVIDIA Dynamo et KV Cache Manager pour réduire la latence du raisonnement des systèmes d'inférence de grands modèles de langage (LLM) et l'optimisation des GPU et des ressources mémoire.

- Routage LLM intelligent sur les DPU BlueField, fonctionnant efficacement avec les microservices NVIDIA NIM pour les charges de travail nécessitant plusieurs modèles, offrant aux clients le meilleur de tous les modèles disponibles.

- Mise à l'échelle et sécurisation du protocole de contexte de modèle (MCP), y compris les capacités de proxy inverse et les protections pour des LLM plus évolutifs et sécurisés, permettant aux clients d'utiliser rapidement et en toute sécurité la puissance des serveurs MCP.

- Programmabilité puissante des données avec des capacités F5 iRules robustes, permettant une personnalisation rapide pour prendre en charge les applications d'IA et les exigences de sécurité en constante évolution.

« L’intégration entre F5 et NVIDIA était séduisante avant même que nous ayons effectué des tests », a déclaré Youssef El Manssouri, PDG et cofondateur de Sesterce. « Nos résultats soulignent les avantages de l’équilibrage de charge dynamique de F5 avec des entrées et sorties Kubernetes à volume élevé dans les environnements d’IA. Cette approche nous permet de distribuer plus efficacement le trafic et d’optimiser l’utilisation de nos GPU tout en nous permettant d’apporter une valeur supplémentaire et unique à nos clients. Nous sommes ravis de constater que F5 prend en charge un nombre croissant de cas d'utilisation NVIDIA, notamment le multi-tenant amélioré, et nous attendons avec impatience de nouvelles innovations entre les entreprises pour soutenir l'infrastructure d'IA de nouvelle génération.

Les points forts des nouvelles fonctionnalités de la solution incluent :

  • Routage LLM et équilibrage de charge dynamique avec BIG-IP Next pour Kubernetes

Grâce à cette solution collaborative, les tâches simples liées à l'IA peuvent être acheminées vers des LLM moins coûteux et légers prenant en charge l'IA générative tout en réservant des modèles avancés aux requêtes complexes. Ce niveau d'intelligence personnalisable permet également aux fonctions de routage d'exploiter les LLM spécifiques au domaine, améliorant ainsi la qualité de sortie et améliorant considérablement l'expérience client. La gestion avancée du trafic de F5 garantit que les requêtes sont envoyées au LLM le plus approprié, réduisant ainsi la latence et améliorant le délai d'obtention du premier jeton.

« Les entreprises déploient de plus en plus de multiples LLM pour alimenter des expériences d'IA avancées, mais le routage et la classification du trafic LLM peuvent être gourmands en ressources de calcul, dégradant les performances et l'expérience utilisateur », a déclaré Kunal Anand, directeur de l'innovation chez F5. « En programmant la logique de routage directement sur les DPU NVIDIA BlueField-3, F5 BIG-IP Next pour Kubernetes est l'approche la plus efficace pour fournir et sécuriser le trafic LLM. Ce n'est que le début. Notre plateforme ouvre de nouvelles possibilités pour l'infrastructure d'IA, et nous sommes ravis d'approfondir la co-innovation avec NVIDIA alors que l'IA d'entreprise continue de se développer.

  • Optimisation des GPU pour l'inférence d'IA distribuée à grande échelle avec NVIDIA Dynamo et l'intégration du cache KV

Plus tôt cette année, NVIDIA Dynamo a été introduit , fournissant un cadre supplémentaire pour le déploiement de modèles d’IA génératifs et de raisonnement dans des environnements distribués à grande échelle. NVIDIA Dynamo simplifie la complexité de l’exécution de l’inférence IA dans des environnements distribués en orchestrant des tâches telles que la planification, le routage et la gestion de la mémoire pour garantir un fonctionnement transparent sous des charges de travail dynamiques. Le déchargement d’opérations spécifiques des CPU vers les DPU BlueField est l’un des principaux avantages de la solution combinée F5 et NVIDIA. Avec F5, la fonctionnalité Dynamo KV Cache Manager peut acheminer intelligemment les requêtes en fonction de la capacité, en utilisant la mise en cache clé-valeur (KV) pour accélérer les cas d'utilisation de l'IA générative en accélérant les processus basés sur la conservation des informations des opérations précédentes (plutôt que de nécessiter un recalcul gourmand en ressources). D'un point de vue infrastructurel, les organisations qui stockent et réutilisent les données du cache KV peuvent le faire à une fraction du coût de l'utilisation de la mémoire GPU à cette fin.

« BIG-IP Next pour Kubernetes accéléré avec les DPU NVIDIA BlueField-3 offre aux entreprises et aux fournisseurs de services un point de contrôle unique pour acheminer efficacement le trafic vers les usines d'IA afin d'optimiser l'efficacité du GPU et d'accélérer le trafic d'IA pour l'ingestion de données, la formation de modèles, l'inférence, le RAG et l'IA agentique », a déclaré Ash Bhalgat, directeur principal des solutions de réseau et de sécurité d'IA, de l'écosystème et du marketing chez NVIDIA. « De plus, la prise en charge par F5 de la multi-location et la programmabilité améliorée avec iRules continuent de fournir une plate-forme bien adaptée à l'intégration continue et aux ajouts de fonctionnalités tels que la prise en charge de NVIDIA Dynamo Distributed KV Cache Manager. »

  • Protection améliorée pour les serveurs MCP avec F5 et NVIDIA

Le protocole MCP (Model Context Protocol) est un protocole ouvert développé par Anthropic qui standardise la manière dont les applications fournissent du contexte aux LLM. Le déploiement de la solution combinée F5 et NVIDIA devant les serveurs MCP permet à la technologie F5 de servir de proxy inverse, renforçant ainsi la sécurité des solutions MCP et des LLM qu'elles prennent en charge. De plus, la programmabilité complète des données rendue possible par F5 iRules favorise une adaptation et une résilience rapides aux exigences des protocoles d'IA en évolution rapide, ainsi qu'une protection supplémentaire contre les risques de cybersécurité.

« Les organisations qui mettent en œuvre l'IA agentique s'appuient de plus en plus sur les déploiements MCP pour améliorer la sécurité et les performances des LLM », a déclaré Greg Schoeny, vice-président principal, fournisseur de services mondiaux chez World Wide Technology. « En apportant une gestion avancée du trafic et une sécurité aux environnements Kubernetes étendus, F5 et NVIDIA offrent des ensembles de fonctionnalités d'IA intégrées, ainsi que des capacités de programmabilité et d'automatisation, que nous ne voyons pas ailleurs dans le secteur à l'heure actuelle. »

F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 est désormais disponible. Pour plus de détails sur la technologie et les avantages du déploiement, rendez-vous sur www.f5.com et visitez les entreprises présentes au NVIDIA GTC Paris, dans le cadre de l'événement VivaTech 2025 de cette semaine. Vous trouverez également plus de détails dans un blog complémentaire de F5 .

À propos de Sesterce

Fondé en 2018, Sesterce est un opérateur européen de premier plan spécialisé dans les infrastructures de calcul haute performance et intelligence artificielle . Avec un contrôle total sur la chaîne de valeur, l'entreprise fournit des solutions flexibles, souveraines et durables adaptées aux besoins des startups, des grandes entreprises et des institutions universitaires. Sesterce vise à devenir le leader européen des infrastructures d'IA, permettant aux innovateurs de se développer tout en respectant les normes éthiques et environnementales.

Dans cet esprit, Sesterce propose également une couche de service « native de l'IA » au-dessus de son infrastructure : elle fournit une préparation de données de haut niveau qui ingère et transforme des flux hétérogènes en temps réel, fournit un support dédié aux Very Large Language Models (VLLM) aux organisations développant ou déployant des modèles à grande échelle, et fournit des solutions de business intelligence modulaires conçues à la fois pour les startups natives de l'IA et les entreprises établies. De plus, Sesterce garantit la confidentialité et le contrôle de bout en bout avec des environnements d'IA et d'inférence privés entièrement conformes aux normes européennes de souveraineté et de confidentialité.

À propos de F5

F5, Inc.(NASDAQ : FFIV) est le leader mondial qui fournit et sécurise chaque application. Fort de trois décennies d'expertise, F5 a développé la plateforme leader du secteur : F5 Application Delivery and Security Platform (ADSP), pour fournir et sécuriser chaque application et chaque API, où qu'elle soit : sur site, dans le cloud, en périphérie et dans des environnements hybrides et multicloud. F5 s'engage à innover et à s'associer aux organisations les plus grandes et les plus avancées au monde pour offrir des expériences numériques rapides, disponibles et sécurisées. Ensemble, nous nous aidons mutuellement à prospérer et à donner vie à un monde numérique meilleur.

Pour plus d'informations, visitez f5.com
Explorez les recherches sur les menaces de F5 Labs sur f5.com/labs
Suivez-nous pour en savoir plus sur F5, nos partenaires et nos technologies : Blog | LinkedIn | X | YouTube | Instagram | Facebook

F5, BIG-IP, BIG-IP Next et iRules sont des marques commerciales, des marques de service ou des noms commerciaux de F5, Inc., aux États-Unis et dans d'autres pays. Tous les autres noms de produits et de sociétés mentionnés dans le présent document peuvent être des marques commerciales de leurs propriétaires respectifs.

# # #

Ce communiqué de presse peut contenir des déclarations prospectives relatives à des événements futurs ou à des performances financières futures qui impliquent des risques et des incertitudes. De telles déclarations peuvent être identifiées par une terminologie telle que « peut », « va », « devrait », « s'attend à », « planifie », « anticipe », « croit », « estime », « prédit », « potentiel » ou « continue », ou la forme négative de ces termes ou de termes comparables. Ces déclarations ne sont que des prédictions et les résultats réels pourraient différer sensiblement de ceux anticipés dans ces déclarations en fonction d'un certain nombre de facteurs, y compris ceux identifiés dans les documents déposés par la société auprès de la SEC.