BLOG

Annonce de la disponibilité générale de F5 BIG-IP Next pour Kubernetes sur les processeurs de données NVIDIA BlueField-3

Ahmed Guetari Miniature
Ahmed Guetari
Publié le 25 avril 2025

Aujourd'hui, F5 annonce la disponibilité générale de F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 , améliorant la gestion des ressources du centre de données cloud de l'usine d'IA tout en obtenant des performances optimales des application d'IA. La solution intégrée améliore l'efficacité de l'infrastructure et offre une mise en réseau, une sécurité et une gestion du trafic hautes performances pour prendre en charge des cas d'utilisation innovants, notamment le GPU en tant que service (GPUaaS) et les capacités d'inférence.

L'intégration de BIG-IP Next pour Kubernetes avec les DPU NVIDIA BlueField-3 répond aux défis urgents auxquels les organisations sont confrontées lors de la mise en œuvre d'infrastructures d'IA à l'échelle du cloud. Les charges de travail d’IA à grande échelle impliquent un traitement de données massif qui nécessite des ressources de calcul hautes performances pour analyser, interpréter et extraire des informations en temps réel. Cela exerce une pression considérable sur infrastructure réseau traditionnelle, ce qui nuit aux performances et risque d’entraîner une inefficacité du traitement et des retards d’inférence.

Performance dans des environnements industriels déterminants

F5, NVIDIA et SoftBank ont récemment collaboré lors d'une session au NVIDIA GTC 2025 pour présenter la valeur d'une solution combinée. Au cours de la session, SoftBank a partagé des informations révolutionnaires sur la manière dont les organisations peuvent dynamiser les charges de travail d'IA natives du cloud avec un proxy de service accéléré par DPU pour Kubernetes . La session a présenté les calculs et les mesures de performance de SoftBank à partir de leur récente preuve de concept pour F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3. SoftBank a obtenu une augmentation de 18 % du débit HTTP (77 Gbps), une amélioration de 11 fois du temps jusqu'au premier octet (TTFB) et une augmentation stupéfiante de 190 fois de l'efficacité énergétique du réseau. Ces résultats mettent en évidence le potentiel transformateur de l’accélération DPU pour les environnements cloud natifs modernes, entraînant un débit amélioré des jetons et des expériences utilisateur améliorées lors de l’inférence de l’IA.

Moins de complexité, performances optimisées et sécurité renforcée

Les DPU NVIDIA BlueField-3 sont conçus pour les charges de travail d'infrastructure les plus exigeantes, de l'IA accélérée et des réseaux sans fil 5G au cloud hybride et au calcul haute performance. La solution combinée s'appuie sur la plateforme de livraison et de sécurité application F5 pour accélérer, sécuriser et rationaliser le trafic de données entrant et sortant des infrastructures d'IA, améliorant ainsi considérablement le traitement efficace des charges de travail d'IA à grande échelle. En offrant une gestion optimisée du trafic, la solution permet de meilleures performances d'ingestion de données et une meilleure utilisation du serveur lors de l'inférence de l'IA, ce qui conduit à de meilleures expériences pour les utilisateurs d'applications d'IA.

BIG-IP Next pour Kubernetes simplifie considérablement la complexité de l'intégration de plusieurs éléments de l'infrastructure d'IA d'entreprise en unifiant les fonctions de mise en réseau, de sécurité, de gestion du trafic et d'équilibrage de charge pour fournir une visibilité complète sur les environnements multicloud, avec une observabilité accrue des charges de travail d'IA. La solution prend en charge les fonctionnalités de sécurité critiques pour les architectures Zero Trust, la protection des API, la prévention des intrusions, le cryptage et la gestion des certificats. Avec la disponibilité générale, l'atténuation des attaques par déni de service distribué (DDoS) accélérée par le matériel a été ajoutée, ainsi que des capacités de pare-feu de périphérie, favorisant une cyberprotection plus rapide et plus efficace. La solution automatise également la découverte et la sécurisation des points de terminaison de formation et d'inférence des modèles d'IA, permettant aux organisations d'isoler les applications d'IA des menaces ciblées tout en renforçant l'intégrité et la souveraineté des données.

De plus, l'intégration de BIG-IP Next pour Kubernetes et des DPU NVIDIA BlueField-3 permet une architecture multi-locataire qui peut héberger en toute sécurité plusieurs utilisateurs sur les mêmes clusters d'IA, tout en gardant leurs charges de travail d'IA, leurs données et leur trafic séparés.

De nouveaux cas d'utilisation convaincants pour aider les clients à adopter l'IA

Ensemble, F5 et NVIDIA améliorent non seulement la gestion et l'efficacité de l'infrastructure, mais permettent également une inférence d'IA plus rapide et plus réactive pour fournir des cas d'utilisation émergents, tels que :

  • GPU as a Service (GPUaaS) fournit un accès à la demande basé sur le cloud aux GPU pour une variété de tâches informatiques, notamment la formation de modèles d'IA, les simulations scientifiques et le rendu. Le service permet aux organisations de louer des ressources de calcul GPU auprès de fournisseurs de cloud sur la base d'un paiement à l'utilisation ou d'un abonnement, en payant les GPU uniquement lorsque cela est nécessaire et en maximisant la quantité de calcul GPU qu'elles peuvent obtenir par dollar dépensé. L'intégration de BIG-IP Next pour Kubernetes avec les DPU NVIDIA BlueField-3 permet une multi-location sécurisée avec une isolation granulaire des locataires, ce qui est essentiel pour les scénarios GPUaaS car cela permet à plusieurs utilisateurs ou organisations de partager de manière sécurisée et efficace les ressources GPU tout en exécutant des charges de travail simultanées. En divisant le service GPU en plusieurs instances sécurisées, la multi-location granulaire isole différents locataires et charges de travail pour éviter les fuites de données et les risques de sécurité. Il permet également une allocation dynamique des ressources, ce qui garantit que chaque charge de travail reçoit les ressources GPU et réseau nécessaires sans surprovisionnement.
  • Services d'inférence , dans lesquels des plates-formes d'IA spécialisées basées sur le cloud fournissent des environnements optimisés pour fournir efficacement des inférences sur des modèles d'IA formés. Contrairement au GPUaaS, qui fournit la puissance brute du GPU, les services d'inférence sont optimisés pour un déploiement de modèle rationalisé. Parmi ces services, on peut citer l’exploitation de chatbots, la mise en œuvre de la détection des fraudes, la réalisation de recherches et l’exécution de tâches similaires basées sur l’IA. Les services d’inférence sont également utilisés pour optimiser la reconnaissance d’images et les scénarios de conduite autonome, ainsi que le traitement du langage naturel pour les assistants vocaux ou l’analyse des sentiments. Les DPU BIG-IP Next pour Kubernetes et NVIDIA BlueField-3 maximisent les performances d'inférence et réduisent la latence de bout en bout en exécutant plusieurs modèles simultanément. Les services d'inférence basés sur la solution combinée F5 et NVIDIA peuvent également mettre à l'échelle dynamiquement les ressources pour gérer les charges de travail et la demande fluctuantes.

Pour les services GPUaaS et d’inférence , l’observabilité granulaire est une exigence essentielle. BIG-IP Next pour Kubernetes fournit une vue centralisée et entièrement intégrée qui offre une visibilité riche sur l'ensemble de l'écosystème de l'IA pour surveiller les performances et la résilience, avec la possibilité d'appliquer instantanément des fonctionnalités de sécurité pour renforcer la confidentialité des données, empêcher accès non autorisé et isoler les anomalies.

Pour plus d'informations, explorez la page produit ou contactez votre équipe de compte F5 pour discuter de BIG-IP Next pour Kubernetes pour l'infrastructure d'IA de votre organisation. L'accent mis par F5 sur l'IA ne s'arrête pas là : découvrez comment F5 sécurise et fournit des applications d'IA partout .