BLOG

F5 aide les fournisseurs de services et les entreprises à exploiter pleinement le potentiel des déploiements d'IA avec les DPU NVIDIA BlueField-3

Ahmed Guetari Miniature
Ahmed Guetari
Publié le 23 octobre 2024

Au cours des dernières décennies, le monde des affaires a été confronté à de nombreux points d’inflexion stimulés par les révolutions technologiques, et F5 a été là pour aider nos clients à traverser ces moments critiques.

Lorsque les organisations ont commencé à se lancer dans leur transformation numérique, les applications sont devenues le cœur de l’activité et F5 a veillé à ce qu’elles puissent être livrées et sécurisées à grande échelle. Plus récemment, lorsque la 5G promettait de révolutionner le monde des affaires avec des vitesses, des services et une fiabilité sans précédent, F5 était là pour aider les entreprises de téléphonie mobile à déployer à grande échelle un cœur 5G natif du cloud.

Aujourd’hui, nous nous trouvons à nouveau à un tournant, probablement le plus important que notre secteur ait connu, alors que les entreprises cherchent des moyens d’exploiter la puissance de l’IA. Alors que les clients mettent en œuvre cette technologie transformatrice, F5 les aide à exploiter tout le potentiel de leurs déploiements d’IA à grande échelle.

La difficulté d’atteindre des performances optimales

L’adoption croissante des clusters d’IA favorise la transformation vers un calcul accéléré. Tenter d’utiliser des pratiques établies en matière d’informatique générale, de mise en réseau, de sécurité et de surveillance entraîne souvent des inefficacités, des retards et une augmentation des coûts.

Les immenses exigences de traitement de données de l’IA exercent une pression considérable sur l’infrastructure réseau traditionnelle, ce qui rend difficile le maintien de performances optimales. L’unité de traitement de données (DPU) NVIDIA BlueField est devenue une solution clé. En déchargeant et en accélérant les tâches de réseau et de sécurité à large bande passante, telles que le traitement des paquets, le cryptage et la compression, les DPU BlueField-3 offrent une connectivité réseau cloud optimale. Cette optimisation améliore les performances globales et accélère l’accès de l’unité de traitement graphique (GPU) aux données.

Les fournisseurs de services et les grandes entreprises construisent des infrastructures d'IA à grande échelle ou des usines d'IA , en utilisant la plate-forme de calcul accélérée full-stack de NVIDIA pour effectuer une formation et une inférence de modèles d'IA génératifs à grande échelle. Les entreprises doivent maximiser leurs investissements dans les usines d’IA, qui peuvent être importants. Cependant, sans les bonnes bases, l’infrastructure de l’IA peut être sous-utilisée. 

Gérer efficacement le vaste trafic dirigé vers les serveurs d'IA

F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 est conçu pour résoudre ces problèmes. La solution se concentre sur le déchargement et l'accélération du F5 BIG-IP Next Service Proxy pour Kubernetes (SPK) sur les DPU BlueField-3 de NVIDIA . Il s'appuie sur le leadership de F5 dans la résolution des défis critiques en matière de livraison d'applications et de sécurité lors des inflexions clés du marché, tout en tirant parti des innovations de NVIDIA en matière de calcul accéléré et de réseaux hautes performances. 

F5 BIG-IP Next SPK a été développé pour résoudre les problèmes rencontrés par les fournisseurs de services avec Kubernetes lors de leur transition vers la 5G. L'infrastructure 5G repose sur une architecture conteneurisée native du cloud, avec des charges de travail de conteneurs gérées à l'aide de Kubernetes. Cependant, Kubernetes n’était pas initialement destiné aux cas d’utilisation complexes requis par un environnement 5G. BIG-IP Next SPK a aidé les opérateurs de télécommunications à adapter la mise en réseau Kubernetes à une infrastructure 5G, leur offrant la visibilité, le contrôle et la sécurité dont ils avaient besoin pour faire évoluer dynamiquement leurs réseaux 5G. Au cours des dernières années, les fournisseurs de services ont utilisé BIG-IP pour donner vie à la technologie 5G pour des millions d’abonnés.  

Tout comme BIG-IP Next SPK a joué un rôle essentiel dans la mise en place du 5G Core lors de la dernière inflexion du marché, il évolue désormais pour relever les défis de l’inflexion du marché de l’IA et de la fourniture de charges de travail de l’IA, qui partagent des similitudes avec les charges de travail 5G, mais impliquent des volumes de trafic exponentiellement plus importants. Pour répondre aux exigences de cette nouvelle inflexion du marché, F5 lance BIG-IP Next pour Kubernetes déployé sur des DPU NVIDIA BlueField-3 pour gérer efficacement le vaste trafic dirigé vers les serveurs d'IA.

Cette solution révolutionne la livraison des applications modernes pour répondre aux exigences de l'IA générative. Nous proposons une implémentation native Kubernetes de la plateforme BIG-IP de F5 qui prend en charge les charges réseau, la sécurité et l'équilibrage de charge, placée à la frontière entre le cluster d'IA et les autres zones des centres de données. BIG-IP Next pour Kubernetes associe les namespaces des clusters d’IA aux espaces réseau des centres de données, assurant une sécurité efficace et une gestion simplifiée. En exploitant les accélérateurs matériels du DPU BlueField-3, BIG-IP Next pour Kubernetes accélère divers services réseau et données, tout en optimisant la consommation d’énergie en déchargeant le processeur.

Par exemple, lors de l'événement Networking @Scale 2024 plus tôt cette année, Meta a indiqué que la latence réseau freinait l'entraînement de son modèle de langage open source LLM Llama 3, un problème résolu en optimisant les interactions entre matériel et logiciel. Cette stratégie a amélioré les performances globales de 10 %. Bien que 10 % puissent paraître modestes, pour un modèle nécessitant des mois d'entraînement, ce gain représente plusieurs semaines économisées.

Réduire la complexité des déploiements d'IA

F5 BIG-IP Next pour Kubernetes déployé sur les DPU BlueField-3 offre de nombreux avantages aux fournisseurs de services et aux grandes entreprises cherchant à créer des infrastructures d'IA à grande échelle. Il s’agit notamment de :

  • Intégration simplifiée : Jusqu’à présent, les organisations étaient confrontées à la complexité de rassembler des composants logiciels de différents fournisseurs pour fournir et sécuriser leurs applications d’IA. BIG-IP Next pour Kubernetes combine la mise en réseau, la sécurité, la gestion du trafic et l'équilibrage de charge dans une solution unique, simplifiant ainsi la complexité des déploiements d'IA. Il offre également une vue intégrée de ces fonctions sur l'ensemble de l'infrastructure de l'IA, ainsi que la riche observabilité et le contrôle granulaire nécessaires pour optimiser les charges de travail de l'IA. 
  • Sécurité renforcée : BIG-IP Next pour Kubernetes intègre des fonctionnalités cruciales et une architecture zéro confiance, incluant le pare-feu en périphérie, la mitigation des attaques par déni de service distribué (DDoS), la protection des API, la prévention des intrusions, le chiffrement et la gestion des certificats. Nous déchargeons ces fonctions vers le DPU, libérant ainsi les précieuses ressources CPU.
  • Performances améliorées : BIG-IP Next for Kubernetes accélère la mise en réseau et la sécurité, ce qui est essentiel pour répondre aux exigences de l'infrastructure d'IA pour fournir des applications à l'échelle du cloud.
  • Prise en charge multi-locataire : BIG-IP Next pour Kubernetes permet une architecture multi-locataire afin que les fournisseurs de services puissent héberger en toute sécurité plusieurs utilisateurs sur la même infrastructure d'IA, tout en gardant leurs charges de travail et leurs données d'IA séparées.

Réussir à fournir des centres de données optimisés par l'IA

En examinant attentivement les défis et les solutions disponibles, les organisations peuvent réussir à fournir des centres de données optimisés pour l’IA sans perturber les opérations existantes ni compromettre la sécurité. F5 BIG-IP Next pour Kubernetes déployé sur les DPU BlueField-3 apparaît comme une option convaincante, offrant une intégration transparente, une sécurité renforcée et des performances améliorées pour les charges de travail d'IA, y compris les LLM à grande échelle comme Llama 3.

Pour en savoir plus, lisez notre communiqué de presse et l'article de blog de NVIDIA .