BLOG

Évolutivité et flexibilité multicloud pour soutenir les usines d'IA

Vignette de Buu Lam
Buu Lam
Publié le 11 novembre 2024
Vignette d'Aubrey King
Aubrey King
Publié le 11 novembre 2024

Tout au long de la série d'usines d'IA de F5, nous avons présenté et défini les usines d'IA, exploré leurs éléments et comment les choix de livraison et de sécurité des application ont un impact sur les performances. Dans cet article, le cinquième de notre série, nous explorons le rôle essentiel que joue le réseau multicloud dans la fourniture d'inférences et la prise en charge du mouvement des données pour une usine d'IA, que F5 définit comme un investissement massif en matière de stockage, de réseau et de calcul répondant à des exigences de formation et d'inférence à haut volume et à hautes performances.

Diagramme de l'architecture de référence de l'IA de F5

Naviguer dans une architecture distribuée : l’emplacement a un impact sur les performances de la charge de travail

Les points d’interconnexion distribués sont au cœur des usines d’IA et pilotent le fonctionnement de l’infrastructure de stockage, de mise en réseau et de calcul. À mesure que les entreprises conçoivent leurs usines d’IA, de nombreux services seront probablement physiquement situés dans le même centre de données ou à proximité. Il existe cependant des services qui peuvent être distribués géographiquement. Des services tels que les applications front-end, les services d'inférences et les modèles requis offriront les meilleures performances s'ils sont conçus pour être proches de l'endroit où ils doivent être consommés. De plus, les données du corpus de connaissances de récupération-génération augmentée (RAG) peuvent être impliquées si la conception nécessite RAG, mais pour l'instant nous nous concentrerons sur le front-end, les services d'inférence et le déploiement du modèle.

ai-factory-within-f5-ai-reference-architecture

Services d'inférence et applications front-end

D'après la liste de Google de 185 cas d'utilisation d'IA générative dans le monde réel provenant des plus grandes organisations mondiales, nous avons observé que bon nombre de ces entreprises s'appuient sur des emplacements stratégiques pour fournir des charges de travail d'IA à des clients mondiaux. L'architecture distribuée d'une usine d'IA doit être au centre des préoccupations et être organisée lorsque l'on pense à l'expérience de l'utilisateur final. Dans le rapport 2024 State of Application Strategy de F5, il a été constaté que 88 % des organisations fonctionnent dans un modèle de cloud hybride . Il a également été signalé que 94 % des répondants sont confrontés à des défis liés au multicloud.

Sécurité multicouche : enseignements tirés des réseaux définis par logiciel (SDN)

Alors, quelle est la meilleure façon de permettre une communication sécurisée et optimisée entre les usines d’IA et les instances où l’inférence est consommée ? La réponse réside dans le réseautage. Pour comprendre pourquoi, passons en revue un mot à la mode dans l’industrie qui a été largement négligé en dehors du monde des fournisseurs de services : les réseaux définis par logiciel (SDN), qui ont été primordiaux pour la sécurité des architectures 3GPP, comme la 4G et la 5G. Le succès en matière de sécurité des architectures 3GPP peut être attribué au respect d’une isolation stricte des application .

Les SDN offrent une solution puissante en mettant en œuvre les principes de confiance zéro de couche 2 et 3, où le trafic ne peut pas être acheminé vers une application à moins d'être vérifié et traité via une infrastructure de routage déterministe définie par logiciel. Cela garantit que chaque composant d'une application peut être mis à l'échelle indépendamment, à la fois localement et globalement, pour obtenir des performances et une sécurité optimales. De plus, les SDN orientent le trafic des application par nom plutôt que par adresse IP, atténuant ainsi les problèmes tels que le chevauchement d’adresses IP et permettant une mise à l’échelle transparente des applications et des solutions de sécurité dans différentes régions et environnements. Le routage et le tunneling explicites au sein des SDN offrent également une défense robuste contre les attaques potentielles, car accès non autorisé nécessite la propriété des ressources au sein du SDN ainsi que le respect de protocoles de communication stricts.

Les grandes entreprises de télécommunications de niveau 1 ont démontré l’efficacité de ces principes à grande échelle, et il est logique de les appliquer à des charges de travail encore plus importantes dans les réseaux multicloud (MCN) pour les usines d’IA.

Comment sécuriser la connectivité à l’échelle de l’IA ?

Cela semble facile, n’est-ce pas ? Le smartphone sur lequel vous lisez ceci dispose probablement d'un GPU, d'une connectivité 5G et d'un mot de passe. Vous devriez être prêt à exercer dans la sécurité privée, n'est-ce pas ? Eh bien, pas tout à fait. Pour l’instant, nous allons examiner trois points. Cependant, sachez qu’il ne s’agit là que d’un début et que d’autres seront découverts à mesure que vous concevrez et modéliserez le paysage des menaces pour votre usine d’IA.

Commençons par parler de vitesse. Lorsque l’IA générative a fait ses débuts avec ChatGPT fin 2022, nous nous concentrions sur les données textuelles. Cependant, en 2024, nous voyons de plus en plus de cas d’utilisation autour d’autres modalités telles que les images, la vidéo, le texte et les données mélangés aux modèles de flux et de couche application en fonction des spécialisations. Dans une architecture d’usine d’IA distribuée, il peut ne pas être souhaitable ou faisable de déployer tous les modèles partout. Cela peut dépendre de facteurs tels que la gravité des données, la gravité de la puissance ou les besoins de calcul. C'est ici que vous pouvez sélectionner une interconnexion réseau à haut débit pour combler les lacunes et atténuer les problèmes de performances auxquels vous êtes confronté lorsque vous éloignez des services dépendants les uns des autres.

Examinons également le vol de modèles, l'un des 10 principaux risques de l'OWASP pour les grands modèles de langage (LLM) et les applications d'IA génératives . Toute entreprise souhaitant exploiter l’IA générative pour obtenir un avantage compétitif va intégrer sa propriété intellectuelle dans le système. Cela peut se faire en formant leur propre modèle avec des données d’entreprise ou en peaufinant un modèle. Dans ces scénarios, tout comme vos autres systèmes d’entreprise, votre usine d’IA crée de la valeur grâce à un modèle que vous devez protéger. Pour empêcher le vol de modèle dans une architecture distribuée, vous devez vous assurer que ce modèle, les mises à jour du modèle et les sources de données auxquelles l' application doit accéder sont chiffrés et disposent de contrôles d'accès appliqués.

Enfin, considérons le déni de service de modèle, également dans le Top 10 de l’OWASP pour les LLM et les applications d’IA génératives. À mesure que la confiance dans les applications d’IA augmente, leur utilisation dans les systèmes critiques augmente, qu’il s’agisse d’un système générateur de revenus important pour votre entreprise ou d’un système essentiel au maintien de la vie, comme dans un scénario de soins de santé. La capacité d’accès au front-end et à l’inférence doit être conçue de manière à ce que tout moyen d’accès possible soit résilient, contrôlé et sécurisé. Ces scénarios d’accès peuvent être appliqués à l’accès de l’utilisateur final ainsi qu’aux services d’inférence jusqu’à l’usine d’IA principale.

Visibilité, orchestration et cryptage intégrés

Les solutions de réseau multicloud sécurisées permettent la connectivité, la sécurité et la visibilité nécessaires pour concevoir les aspects distribués de l'architecture de l'usine d'IA. F5 Distributed Cloud Network Connect répond à tous les besoins ci-dessus et bien plus encore. Distributed Cloud Network Connect propose également des solutions de périphérie client uniques permettant une connectivité universelle, que vous cherchiez à exécuter des inférences dans le cloud public, dans vos propres centres de données ou dans des centres de données colocalisés, ou à la périphérie sur le matériel de votre choix. Déployez-le simplement et rapidement, et le client établit lui-même la connectivité.

  • Connectez-vous à grande vitesse : F5 Distributed Cloud Services s'appuie sur un réseau mondial interconnecté à haut débit qui compte parmi les réseaux peer-to-peer les plus élevés au monde. Les entreprises peuvent être sûres que leurs usines d’IA ont intégré la connectivité la plus rapide possible à leurs services distribués. Distributed Cloud Network Connect permet un provisionnement rapide des sites permettant aux entreprises de fournir des services d'IA immédiatement.
  • Connectez-vous avec la sécurité : Distributed Cloud Network Connect est sécurisé par défaut. La connectivité est cryptée et permet un contrôle total de ce qui peut et ne peut pas se connecter à une usine d'IA et aux services distribués. De plus, les périphériques clients peuvent être utilisés pour activer des services au-delà de ce que nous avons évoqué jusqu'à présent, notamment la protection des application Web et des API (WAAP).
  • Connectez-vous avec visibilité : Distributed Cloud Services propose également une console SaaS qui fournit des tableaux de bord riches et remplis de données partageant des informations sur l'état de la connectivité des application à n'importe quelle partie du réseau. Cela permet aux équipes d’identifier de manière proactive où les problèmes peuvent survenir et de les résoudre avant qu’ils ne s’aggravent.

Concevoir votre usine d’IA n’est pas une mince affaire, et les entreprises souhaitent récolter les bénéfices de l’IA le plus rapidement possible tout en garantissant une sécurité maximale. Être capable de déployer de manière fiable plusieurs fonctions sécurisées de votre usine d'IA permettra une innovation plus rapide, tout en libérant du temps pour se concentrer sur les aspects des usines d'IA qui apportent une véritable différenciation commerciale et un avantage compétitif. Si vous souhaitez en savoir plus sur la mise en réseau multicloud, regardez notre leçon Brightboard ou explorez F5 Distributed Cloud Network Connect .

L'accent mis par F5 sur l'IA ne s'arrête pas là : découvrez comment F5 sécurise et fournit des applications d'IA partout .