BLOG

F5 aide les fournisseurs de services et les entreprises à exploiter pleinement le potentiel des déploiements d'IA avec les DPU NVIDIA BlueField-3

Ahmed Guetari Miniature
Ahmed Guetari
Publié le 23 octobre 2024

Au cours des dernières décennies, le monde des affaires a été confronté à de nombreux points d’inflexion stimulés par les révolutions technologiques, et F5 a été là pour aider nos clients à traverser ces moments critiques.

Lorsque les organisations ont commencé à se lancer dans leur transformation numérique, les applications sont devenues le cœur de l’activité et F5 a veillé à ce qu’elles puissent être livrées et sécurisées à grande échelle. Plus récemment, lorsque la 5G promettait de révolutionner le monde des affaires avec des vitesses, des services et une fiabilité sans précédent, F5 était là pour aider les entreprises de téléphonie mobile à déployer à grande échelle un cœur 5G natif du cloud.

Aujourd’hui, nous nous trouvons à nouveau à un tournant, probablement le plus important que notre secteur ait connu, alors que les entreprises cherchent des moyens d’exploiter la puissance de l’IA. Alors que les clients mettent en œuvre cette technologie transformatrice, F5 les aide à exploiter tout le potentiel de leurs déploiements d’IA à grande échelle.

La difficulté d’atteindre des performances optimales

L’adoption croissante des clusters d’IA favorise la transformation vers un calcul accéléré. Tenter d’utiliser des pratiques établies en matière d’informatique générale, de mise en réseau, de sécurité et de surveillance entraîne souvent des inefficacités, des retards et une augmentation des coûts.

Les immenses exigences de traitement de données de l’IA exercent une pression considérable sur l’infrastructure réseau traditionnelle, ce qui rend difficile le maintien de performances optimales. L’unité de traitement de données (DPU) NVIDIA BlueField est devenue une solution clé. En déchargeant et en accélérant les tâches de réseau et de sécurité à large bande passante, telles que le traitement des paquets, le cryptage et la compression, les DPU BlueField-3 offrent une connectivité réseau cloud optimale. Cette optimisation améliore les performances globales et accélère l’accès de l’unité de traitement graphique (GPU) aux données.

Les fournisseurs de services et les grandes entreprises construisent des infrastructures d'IA à grande échelle ou des usines d'IA , en utilisant la plate-forme de calcul accélérée full-stack de NVIDIA pour effectuer une formation et une inférence de modèles d'IA génératifs à grande échelle. Les entreprises doivent maximiser leurs investissements dans les usines d’IA, qui peuvent être importants. Cependant, sans les bonnes bases, l’infrastructure de l’IA peut être sous-utilisée. 

Gérer efficacement le vaste trafic dirigé vers les serveurs d'IA

F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 est conçu pour résoudre ces problèmes. La solution se concentre sur le déchargement et l'accélération du F5 BIG-IP Next Service Proxy pour Kubernetes (SPK) sur les DPU BlueField-3 de NVIDIA . Il s'appuie sur le leadership de F5 dans la résolution des défis critiques en matière de livraison d'applications et de sécurité lors des inflexions clés du marché, tout en tirant parti des innovations de NVIDIA en matière de calcul accéléré et de réseaux hautes performances. 

F5 BIG-IP Next SPK a été développé pour résoudre les problèmes rencontrés par les fournisseurs de services avec Kubernetes lors de leur transition vers la 5G. L'infrastructure 5G repose sur une architecture conteneurisée native du cloud, avec des charges de travail de conteneurs gérées à l'aide de Kubernetes. Cependant, Kubernetes n’était pas initialement destiné aux cas d’utilisation complexes requis par un environnement 5G. BIG-IP Next SPK a aidé les opérateurs de télécommunications à adapter la mise en réseau Kubernetes à une infrastructure 5G, leur offrant la visibilité, le contrôle et la sécurité dont ils avaient besoin pour faire évoluer dynamiquement leurs réseaux 5G. Au cours des dernières années, les fournisseurs de services ont utilisé BIG-IP pour donner vie à la technologie 5G pour des millions d’abonnés.  

Tout comme BIG-IP Next SPK a joué un rôle essentiel dans la mise en place du 5G Core lors de la dernière inflexion du marché, il évolue désormais pour relever les défis de l’inflexion du marché de l’IA et de la fourniture de charges de travail de l’IA, qui partagent des similitudes avec les charges de travail 5G, mais impliquent des volumes de trafic exponentiellement plus importants. Pour répondre aux exigences de cette nouvelle inflexion du marché, F5 lance BIG-IP Next pour Kubernetes déployé sur des DPU NVIDIA BlueField-3 pour gérer efficacement le vaste trafic dirigé vers les serveurs d'IA.

Cette solution transforme la distribution d'applications modernes pour répondre aux exigences de l'IA générative. Il s'agit d'une implémentation native Kubernetes de la plateforme BIG-IP de F5 qui gère les charges de travail de mise en réseau, de sécurité et d'équilibrage de charge, se situant au point de démarcation entre le cluster d'IA et les autres parties des centres de données. BIG-IP Next pour Kubernetes mappe les espaces de noms des clusters d'IA à la location du réseau du centre de données, offrant ainsi une sécurité adéquate et une gestion simplifiée. En tirant parti des accélérateurs matériels du DPU BlueField-3, BIG-IP Next for Kubernetes accélère une variété de services de réseau et de données, optimisant l'efficacité énergétique en déchargeant les ressources de calcul du processeur.

Par exemple, lors de son événement Networking @Scale 2024 plus tôt cette année, Meta a mentionné que la formation de son modèle de langage d'apprentissage open source (LLM) Llama 3 était entravée par la latence du réseau, qui a été résolue en ajustant les interactions matériel-logiciel. Cette approche a permis d’augmenter les performances globales de 10 %. Même si 10 % peuvent sembler être un petit gain, pour un modèle dont la formation prend des mois, cette amélioration se traduit par des semaines de temps gagné.

Réduire la complexité des déploiements d'IA

F5 BIG-IP Next pour Kubernetes déployé sur les DPU BlueField-3 offre de nombreux avantages aux fournisseurs de services et aux grandes entreprises cherchant à créer des infrastructures d'IA à grande échelle. Il s’agit notamment de :

  • Intégration simplifiée : Jusqu’à présent, les organisations étaient confrontées à la complexité de rassembler des composants logiciels de différents fournisseurs pour fournir et sécuriser leurs applications d’IA. BIG-IP Next pour Kubernetes combine la mise en réseau, la sécurité, la gestion du trafic et l'équilibrage de charge dans une solution unique, simplifiant ainsi la complexité des déploiements d'IA. Il offre également une vue intégrée de ces fonctions sur l'ensemble de l'infrastructure de l'IA, ainsi que la riche observabilité et le contrôle granulaire nécessaires pour optimiser les charges de travail de l'IA. 
  • Sécurité renforcée : BIG-IP Next for Kubernetes prend en charge les fonctionnalités de sécurité critiques et l'architecture Zero Trust, notamment le pare-feu périphérique, l'atténuation des attaques par déni de service distribué (DDoS), la protection des API, la prévention des intrusions, le chiffrement et la gestion des certificats, déchargeant ces fonctions sur le DPU et libérant de précieuses ressources CPU.
  • Performances améliorées : BIG-IP Next for Kubernetes accélère la mise en réseau et la sécurité, ce qui est essentiel pour répondre aux exigences de l'infrastructure d'IA pour fournir des applications à l'échelle du cloud.
  • Prise en charge multi-locataire : BIG-IP Next pour Kubernetes permet une architecture multi-locataire afin que les fournisseurs de services puissent héberger en toute sécurité plusieurs utilisateurs sur la même infrastructure d'IA, tout en gardant leurs charges de travail et leurs données d'IA séparées.

Réussir à fournir des centres de données optimisés par l'IA

En examinant attentivement les défis et les solutions disponibles, les organisations peuvent réussir à fournir des centres de données optimisés pour l’IA sans perturber les opérations existantes ni compromettre la sécurité. F5 BIG-IP Next pour Kubernetes déployé sur les DPU BlueField-3 apparaît comme une option convaincante, offrant une intégration transparente, une sécurité renforcée et des performances améliorées pour les charges de travail d'IA, y compris les LLM à grande échelle comme Llama 3.

Pour en savoir plus, lisez notre communiqué de presse et l'article de blog de NVIDIA .