Au cours des dernières décennies, le monde des affaires a été confronté à de nombreux points d’inflexion stimulés par les révolutions technologiques, et F5 a été là pour aider nos clients à traverser ces moments critiques.
Lorsque les organisations ont commencé à se lancer dans leur transformation numérique, les applications sont devenues le cœur de l’activité et F5 a veillé à ce qu’elles puissent être livrées et sécurisées à grande échelle. Plus récemment, lorsque la 5G promettait de révolutionner le monde des affaires avec des vitesses, des services et une fiabilité sans précédent, F5 était là pour aider les entreprises de téléphonie mobile à déployer à grande échelle un cœur 5G natif du cloud.
Aujourd’hui, nous nous trouvons à nouveau à un tournant, probablement le plus important que notre secteur ait connu, alors que les entreprises cherchent des moyens d’exploiter la puissance de l’IA. Alors que les clients mettent en œuvre cette technologie transformatrice, F5 les aide à exploiter tout le potentiel de leurs déploiements d’IA à grande échelle.
L’adoption croissante des clusters d’IA favorise la transformation vers un calcul accéléré. Tenter d’utiliser des pratiques établies en matière d’informatique générale, de mise en réseau, de sécurité et de surveillance entraîne souvent des inefficacités, des retards et une augmentation des coûts.
Les immenses exigences de traitement de données de l’IA exercent une pression considérable sur l’infrastructure réseau traditionnelle, ce qui rend difficile le maintien de performances optimales. L’unité de traitement de données (DPU) NVIDIA BlueField est devenue une solution clé. En déchargeant et en accélérant les tâches de réseau et de sécurité à large bande passante, telles que le traitement des paquets, le cryptage et la compression, les DPU BlueField-3 offrent une connectivité réseau cloud optimale. Cette optimisation améliore les performances globales et accélère l’accès de l’unité de traitement graphique (GPU) aux données.
Les fournisseurs de services et les grandes entreprises construisent des infrastructures d'IA à grande échelle ou des usines d'IA , en utilisant la plate-forme de calcul accélérée full-stack de NVIDIA pour effectuer une formation et une inférence de modèles d'IA génératifs à grande échelle. Les entreprises doivent maximiser leurs investissements dans les usines d’IA, qui peuvent être importants. Cependant, sans les bonnes bases, l’infrastructure de l’IA peut être sous-utilisée.
F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 est conçu pour résoudre ces problèmes. La solution se concentre sur le déchargement et l'accélération du F5 BIG-IP Next Service Proxy pour Kubernetes (SPK) sur les DPU BlueField-3 de NVIDIA . Il s'appuie sur le leadership de F5 dans la résolution des défis critiques en matière de livraison d'applications et de sécurité lors des inflexions clés du marché, tout en tirant parti des innovations de NVIDIA en matière de calcul accéléré et de réseaux hautes performances.
F5 BIG-IP Next SPK a été développé pour résoudre les problèmes rencontrés par les fournisseurs de services avec Kubernetes lors de leur transition vers la 5G. L'infrastructure 5G repose sur une architecture conteneurisée native du cloud, avec des charges de travail de conteneurs gérées à l'aide de Kubernetes. Cependant, Kubernetes n’était pas initialement destiné aux cas d’utilisation complexes requis par un environnement 5G. BIG-IP Next SPK a aidé les opérateurs de télécommunications à adapter la mise en réseau Kubernetes à une infrastructure 5G, leur offrant la visibilité, le contrôle et la sécurité dont ils avaient besoin pour faire évoluer dynamiquement leurs réseaux 5G. Au cours des dernières années, les fournisseurs de services ont utilisé BIG-IP pour donner vie à la technologie 5G pour des millions d’abonnés.
Tout comme BIG-IP Next SPK a joué un rôle essentiel dans la mise en place du 5G Core lors de la dernière inflexion du marché, il évolue désormais pour relever les défis de l’inflexion du marché de l’IA et de la fourniture de charges de travail de l’IA, qui partagent des similitudes avec les charges de travail 5G, mais impliquent des volumes de trafic exponentiellement plus importants. Pour répondre aux exigences de cette nouvelle inflexion du marché, F5 lance BIG-IP Next pour Kubernetes déployé sur des DPU NVIDIA BlueField-3 pour gérer efficacement le vaste trafic dirigé vers les serveurs d'IA.
Cette solution transforme la distribution d'applications modernes pour répondre aux exigences de l'IA générative. Il s'agit d'une implémentation native Kubernetes de la plateforme BIG-IP de F5 qui gère les charges de travail de mise en réseau, de sécurité et d'équilibrage de charge, se situant au point de démarcation entre le cluster d'IA et les autres parties des centres de données. BIG-IP Next pour Kubernetes mappe les espaces de noms des clusters d'IA à la location du réseau du centre de données, offrant ainsi une sécurité adéquate et une gestion simplifiée. En tirant parti des accélérateurs matériels du DPU BlueField-3, BIG-IP Next for Kubernetes accélère une variété de services de réseau et de données, optimisant l'efficacité énergétique en déchargeant les ressources de calcul du processeur.
Par exemple, lors de son événement Networking @Scale 2024 plus tôt cette année, Meta a mentionné que la formation de son modèle de langage d'apprentissage open source (LLM) Llama 3 était entravée par la latence du réseau, qui a été résolue en ajustant les interactions matériel-logiciel. Cette approche a permis d’augmenter les performances globales de 10 %. Même si 10 % peuvent sembler être un petit gain, pour un modèle dont la formation prend des mois, cette amélioration se traduit par des semaines de temps gagné.
F5 BIG-IP Next pour Kubernetes déployé sur les DPU BlueField-3 offre de nombreux avantages aux fournisseurs de services et aux grandes entreprises cherchant à créer des infrastructures d'IA à grande échelle. Il s’agit notamment de :
En examinant attentivement les défis et les solutions disponibles, les organisations peuvent réussir à fournir des centres de données optimisés pour l’IA sans perturber les opérations existantes ni compromettre la sécurité. F5 BIG-IP Next pour Kubernetes déployé sur les DPU BlueField-3 apparaît comme une option convaincante, offrant une intégration transparente, une sécurité renforcée et des performances améliorées pour les charges de travail d'IA, y compris les LLM à grande échelle comme Llama 3.
Pour en savoir plus, lisez notre communiqué de presse et l'article de blog de NVIDIA .