Alors que les organisations accélèrent l’innovation, développent des produits basés sur l’IA et qui changent la vie, comme les voitures autonomes ou les grands modèles linguistiques (LLM), une infrastructure efficace est essentielle pour faire évoluer les opérations et rester compétitif. Historiquement, les centres de données se sont concentrés sur l’utilisation d’unités centrales de traitement (CPU) pour le calcul à usage général et d’unités de traitement graphique (GPU) pour les tâches de traitement parallèle intensives essentielles à l’IA et à l’apprentissage automatique. À mesure que les modèles d’IA gagnent en ampleur et en complexité, les centres de données sont devenus la nouvelle unité de calcul, repoussant les limites des réseaux cloud traditionnels. Pour permettre la transformation vers l’informatique à l’échelle du centre de données, l’unité de traitement de données (DPU) est apparue comme un troisième pilier de l’informatique.
Plus tôt dans notre série sur les usines d’IA, F5 a défini une usine d’IA comme un investissement massif en matière de stockage, de réseau et de calcul répondant à des exigences de formation et d’inférence à haut volume et à hautes performances. Comme les usines de fabrication traditionnelles, les usines d’IA exploitent des modèles d’IA pré-entraînés pour transformer les données brutes en intelligence.
Un DPU est un processeur programmable conçu pour gérer de vastes mouvements et traitements de données via l'accélération matérielle au débit de ligne d'un réseau. Fin 2024, nous avons annoncé BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3. NVIDIA BlueField est une plate-forme de calcul accélérée pour l'infrastructure des centres de données, spécialement conçue pour alimenter les usines d'IA NVIDIA. Alors que le processeur est responsable du calcul à usage général pour les applications informatiques et que le GPU excelle dans les tâches de calcul accélérées telles que les calculs vectoriels et matriciels à grande échelle liés à l'IA et le rendu graphique, le DPU NVIDIA BlueField est souvent intégré dans une carte d'interface réseau (NIC) PCIe (Peripheral Component Interconnect Express), qui est responsable de la connectivité réseau pour l'hôte ou le châssis d'un cluster d'IA. En d’autres termes, la carte réseau est désormais devenue un processeur puissant, optimisé pour le traitement des données entrant et sortant du serveur. Le DPU BlueField peut également fonctionner comme un périphérique réseau inter-cluster lorsque plusieurs hôtes ou châssis se trouvent dans un seul cluster AI.
En gérant les services de réseau, de gestion du stockage et de sécurité définis par logiciel, les DPU BlueField réduisent la charge de calcul des processeurs, leur permettant de se concentrer sur les tâches dans lesquelles ils excellent. Cette capacité de déchargement est cruciale pour les usines d’IA, où de vastes quantités de données doivent être traitées et transférées rapidement pour répondre aux exigences de modèles d’IA complexes et de tâches d’inférence en temps réel.
Les DPU BlueField contribuent de manière significative à l'efficacité énergétique et à l'évolutivité des usines d'IA. Les usines d’IA nécessitant des ressources de calcul massives, la gestion efficace de l’alimentation et du refroidissement devient primordiale. Les DPU, avec leurs moteurs d'accélération spécialisés et leurs interfaces réseau hautes performances, garantissent que les données sont traitées et transportées avec une latence et une consommation d'énergie minimales. Cette efficacité réduit non seulement les coûts opérationnels, mais permet également aux usines d’IA d’évoluer efficacement. Avec les DPU BlueField, les usines d’IA et les infrastructures à grande échelle peuvent obtenir une infrastructure équilibrée, performante et à haut rendement qui prend en charge l’innovation et le déploiement continus des technologies d’IA.
Lorsque l'on examine l'architecture de référence de l'IA de F5 , les DPU sont généralement déployés dans les domaines fonctionnels de la gestion du corpus RAG, du réglage fin, de la formation et des services d'inférence ainsi que dans les clusters de stockage prenant en charge ces fonctions. De plus, les DPU sont présents dans de nombreuses applications où un débit de données et une efficacité énergétique élevés sont requis, notamment des exemples tels que les DPU prenant en charge les déploiements de réseaux d'accès radio (RAN) 5G.
L' architecture de référence de l'IA F5 mettant en évidence les domaines dans lesquels les DPU sont couramment déployés.
La nouvelle exigence d’une gestion efficace du trafic et d’une sécurité robuste pour les usines d’IA représente un changement important axé sur le flux de données et une infrastructure renforcée pour prévenir les menaces de sécurité. F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 permet une connectivité à faible latence et à haut débit en déchargeant et en accélérant le déplacement des données du processeur vers les DPU. De plus, il intègre des fonctionnalités de sécurité complètes, telles que des pare-feu, une atténuation des attaques DDoS, un WAF, une protection API et une prévention des intrusions, directement sur le DPU programmable NVIDIA BlueField-3. Cela vous permet de créer une architecture qui isole les modèles et les applications d'IA des menaces, garantissant ainsi l'intégrité et la souveraineté des données.
BIG-IP Next pour Kubernetes prend en charge le multi-hébergement, permettant l'hébergement de plusieurs utilisateurs et charges de travail d'IA sur une seule infrastructure, permettant ainsi l'isolation du réseau. La gestion d'une infrastructure d'IA à grande échelle devient simple avec BIG-IP Next pour Kubernetes, car il fournit un point central pour la gestion des réseaux, de la gestion du trafic, de la sécurité et des environnements multi-locataires. Cela simplifie les opérations et réduit les dépenses opérationnelles en offrant des données de trafic détaillées pour la visibilité du réseau et l’optimisation des performances. L'intégration entre BIG-IP Next for Kubernetes et le DPU NVIDIA BlueField-3 permet de garantir que les usines d'IA fonctionnent à leur plein potentiel tout en réduisant la prolifération des outils et la complexité opérationnelle.
Pour les entreprises qui investissent dans l’IA, il n’est pas négociable de garantir que leur infrastructure est optimisée et sécurisée. F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 est un investissement stratégique visant à offrir des performances, une évolutivité et une sécurité élevées, maximisant ainsi le retour sur investissement de l'infrastructure d'IA à grande échelle. Pour les organisations déployant des GPU et des DPU pour soutenir les investissements dans l'usine d'IA, contactez F5 pour découvrir comment BIG-IP Next for Kubernetes peut améliorer vos charges de travail d'IA.
L'accent mis par F5 sur l'IA ne s'arrête pas là : découvrez comment F5 sécurise et fournit des applications d'IA partout .
Vous souhaitez en savoir plus sur les usines d’IA ? Découvrez d’autres articles de notre série de blogs sur l’usine d’IA :