PRÉSENTATION DE LA SOLUTION

Distribuez, optimisez et sécurisez vos charges de travail d'IA avec F5

Alimentez et protégez vos API avec l'IA/ML pour réduire la complexité de l'écosystème, et sécurisez et optimisez chaque application et charge de travail d'IA dans les environnements hybrides et multicloud.

Illustration de l'intégration d'API sécurisées par des tiers

Principaux avantages

Flexibilité pour déployer des charges de travail d'IA n'importe où

F5 offre la flexibilité nécessaire pour fournir l'IA à proximité de vos données, du centre de données à la périphérie, afin de maximiser la précision, les informations, les performances, la rentabilité et la sécurité.

Connexion automatique aux charges de travail d'IA distribuées en quelques minutes

Supprimez la complexité pour libérer l’agilité et l’innovation de l’entreprise en connectant automatiquement les charges de travail d’IA distribuées dans tous les environnements en faisant abstraction de l’infrastructure sous-jacente.

Sécurité uniforme sur toutes les applications

Connectez, sécurisez et gérez les applications et les charges de travail dans le cloud, en périphérie ou sur le réseau mondial F5.

Accélération des performances de la charge de travail de l'IA

Les solutions d’accélération des applications de F5 sont conçues pour optimiser les performances des charges de travail de l’IA, notamment en partageant efficacement les ressources GPU.

Gestion globale du trafic des charges de travail de l'IA

Pour les organisations ayant une présence mondiale, les solutions de gestion du trafic mondial de F5 jouent un rôle essentiel dans l’optimisation du placement des charges de travail de l’IA et la garantie de la souveraineté des données.

Analyses basées sur l'IA

F5 exploite la puissance de l'IA et du ML pour fournir des informations exploitables sur les performances et la sécurité des charges de travail de l'IA.

Au cœur de l'IA générative : Comprendre les actifs clés

Pendant des décennies, la plupart des organisations ont été obligées de faire évoluer leur infrastructure pour prendre en charge de nouvelles applications et charges de travail. Cette évolution se poursuit avec l'avancement rapide des nouveaux modèles de langage à grande échelle (LLM) et des applications d'intelligence artificielle générative (IA) telles que ChatGPT d'OpenAI. Les charges de travail d’IA sont les applications les plus modernes et présentent aux organisations un double défi : optimiser les performances et la sécurité de ces opérations d’IA critiques. Alors que les applications d’IA générative et d’apprentissage automatique (ML) continuent de remodeler les industries, prendre des décisions éclairées sur la distribution et la gouvernance des charges de travail de l’IA est devenu primordial. 

L’IA générative englobe plusieurs atouts clés qui contribuent à sa fonctionnalité et à son efficacité. Dans l’architecture des applications d’IA, les interactions entre Kubernetes, les interfaces de programmation d’applications (API) et les environnements multicloud jouent un rôle crucial dans la création d’un système cohérent et évolutif. À un niveau élevé, Kubernetes sert de plate-forme de choix, agissant comme orchestrateur, gérant le déploiement, la mise à l'échelle et la surveillance de divers composants au sein de l'application d'IA. Les API agissent comme des canaux de communication qui permettent à ces composants d’interagir de manière transparente. Les environnements multicloud offrent la possibilité de choisir l’emplacement optimal pour exécuter chacune de vos charges de travail et cas d’utilisation afin de garantir des performances prévisibles et une sécurité cohérente. 

Kubernetes : La plateforme d'IA générative

Kubernetes continue d'évoluer en tant que plateforme de choix pour l'IA générative, fournissant la base de la conteneurisation, garantissant que les modèles d'IA, les pipelines de traitement de données et d'autres services peuvent être gérés et mis à l'échelle efficacement. Il permet l'allocation dynamique des ressources informatiques, garantissant des performances et une utilisation optimales des ressources. Kubernetes cloud natif facilite le déploiement transparent des charges de travail d'IA dans des environnements hybrides et multicloud. L’écosystème dynamique autour de Kubernetes s’avère être une force formidable pour accélérer l’innovation et l’adoption de l’IA. La collaboration entre les leaders de l’industrie, les projets open source et les fournisseurs de cloud favorise les percées technologiques de l’IA. 

API : La connexion pour les composants de l'IA

Les API sont le pivot des architectures d’IA, permettant à différents composants et services de communiquer entre eux. Les API fournissent le tissu conjonctif permettant aux différentes parties de l’application d’IA d’échanger des données et des instructions. Par exemple, un modèle d’IA peut exploiter des API pour demander des données à un service de stockage basé sur le cloud ou envoyer ses prédictions à un autre composant pour la prise de décision. De plus, les plugins OpenAI exploitent les API pour améliorer encore les capacités de ChatGPT en permettant à ChatGPT d'interagir avec les API définies par les développeurs. 

Mise en réseau multicloud : Connecter les charges de travail de l'IA dans des environnements distribués

Les centres de données traditionnels ont souvent du mal à gérer les exigences exigeantes des charges de travail d’IA avancées, ce qui soulève des inquiétudes quant à la capacité et à l’adéquation au paysage numérique moderne. Le volume important de données produites par la formation et le réglage fin des modèles d’IA fait de la « gravité des données » une préoccupation majeure pour les entreprises qui adoptent l’IA. La gravité des données apparaît à mesure que le volume de données d’un référentiel augmente parallèlement à son utilité croissante. Finalement, le défi de copier ou de déplacer ces données devient fastidieux et coûteux. Par conséquent, les données attirent intrinsèquement des services, des applications et des données supplémentaires dans leur référentiel. La gravité des données impacte l’IA générative de deux manières. Premièrement, cela limite la disponibilité et l’accessibilité des données pour la formation et la génération. Et cela amplifie simultanément la nécessité et la valeur des données pour affiner et élever les modèles d’IA générative et leurs résultats. 

Les environnements multicloud sont devenus la base de la nouvelle classe d’applications basées sur l’IA en raison de leur capacité à rendre les données privées mais hautement distribuées plus faciles à exploiter. Les environnements multicloud améliorent encore la flexibilité et la résilience de l’architecture en permettant aux applications d’IA de tirer parti des meilleures ressources de différents fournisseurs de cloud. Le multicloud réduit également le risque de dépendance vis-à-vis d’un fournisseur de cloud et protège contre les temps d’arrêt potentiels tout en offrant des opportunités de migration. Kubernetes, en conjonction avec les API, garantit que ces environnements multi-cloud peuvent être gérés et orchestrés efficacement, simplifiant ainsi le déploiement et la mise à l'échelle des charges de travail d'IA sur diverses plates-formes cloud. 

Bien qu’une approche multicloud offre flexibilité et évolutivité, elle introduit également des défis en termes de cohérence, de sécurité et de conformité des données. Les organisations doivent s’assurer que les charges de travail et les données peuvent être transférées en toute sécurité entre les clouds, les centres de données sur site ou dans un lac de données. Pour garantir la souveraineté des données, les organisations doivent répondre à certaines exigences réglementaires sectorielles et gouvernementales, sans impacter gravement les temps de réponse de l'IA. L’exploitation d’environnements multi-cloud peut également y contribuer, en offrant aux organisations mondiales un accès à des services cloud dans différents emplacements géographiques, contribuant ainsi à respecter la conformité réglementaire. Résoudre ce problème est un défi si l’on considère que chaque modèle d’IA est construit avec un accès à une vaste base de données pour fournir les bonnes inférences pour les requêtes des utilisateurs en temps réel, et que les données de formation peuvent résider n’importe où. 

Dans un monde idéal, les entreprises devraient satisfaire aux exigences rigoureuses de connectivité, de sécurité et d'évolutivité associées aux charges de travail de l'IA avec une solution unifiée qui étend les services d'application et de sécurité cohérents sur les clouds publics, les clouds privés, Kubernetes natif et Edge. 

Charges de travail de l'IA : La nouvelle surface d’attaque des cybercriminels

Étant donné que les charges de travail d’IA doivent être déployées aussi près que possible des données dont elles ont besoin, elles sont souvent déployées sur plusieurs clouds, ce qui rend difficile le maintien d’une visibilité et d’un contrôle centralisés. L’ajout de charges de travail d’IA générative à un environnement d’application déjà distribué élargit encore la surface de menace de l’entreprise. 

Il est prudent de reconnaître que même si l’IA offre d’énormes avantages aux applications qui l’utilisent, pour tirer pleinement parti des avantages de l’IA, les entreprises doivent prendre les mesures nécessaires pour optimiser et sécuriser leurs charges de travail d’IA. Cela nécessite non seulement d’améliorer l’efficacité des charges de travail de l’IA, mais également la gestion d’environnements Kubernetes complexes, une intégration transparente et sécurisée des API et une gestion efficace des réseaux multi-cloud.  

L'IA générative et d'autres boîtes à outils d'IA deviennent des surfaces d'attaque de premier ordre pour les cybercriminels qui utilisent souvent l'IA pour déployer des attaques plus innovantes et plus sophistiquées afin d'accéder aux informations personnelles identifiables (PII) et à d'autres données confidentielles, y compris les données en cours de formation susceptibles d'exposer des secrets commerciaux ou la propriété intellectuelle (PI). Les équipes d’opérations de sécurité doivent être capables de détecter et de contrecarrer les attaques adverses, y compris la manipulation malveillante des modèles d’IA et de ML. Qu'il s'agisse d'alimenter des deepfakes presque impossibles à distinguer de la réalité ou de lancer des campagnes de courrier électronique de phishing sophistiquées qui propagent des attaques de ransomware, les cybercriminels ciblent et exploitent l'IA à des fins malveillantes.  

Shadow AI – IA générative non autorisée

L’autre problème de sécurité majeur dans les environnements d’IA est l’intelligence artificielle fantôme. Comme l’informatique fantôme, l’intelligence artificielle fantôme fait référence à l’utilisation d’outils d’IA qui sont utilisés en dehors de la gouvernance d’entreprise. L’IA fantôme devient un problème lorsque les employés « contournent » l’informatique, ignorant les politiques et les processus mis en place pour protéger l’entreprise, généralement parce qu’ils pensent que les politiques et les processus ralentissent l’innovation et les empêchent de tirer parti de l’IA pour les gains de développement et de productivité. Avec l’utilisation explosive de l’IA générative par les employés de toute une organisation, ainsi que le manque de gouvernance appropriée, couplé à des modèles d’apprentissage qui consomment souvent des données sensibles, l’IA fantôme présente une menace importante pour l’exposition des PII, de la propriété intellectuelle de l’entreprise et d’autres données sensibles de l’entreprise. Les organisations doivent mettre en œuvre des mécanismes pour se protéger contre les dangers de l’IA fantôme.  

L'IA n'est qu'une application puissante et moderne

Même si l’IA peut sembler magique, ce n’est pas le cas : C’est vraiment juste une application moderne et puissante, comme beaucoup d’autres. Les LLM sont simplement des algorithmes qui comprennent le langage naturel et apprennent à partir de grands modèles de données ou de lacs de données pour comprendre, résumer, créer et prédire de nouveaux contenus, en tirant parti du ML.  

Dans ce paysage en évolution rapide, F5 propose des solutions qui incluent et utilisent l'IA pour piloter et défendre votre IA en alimentant et en protégeant l'IA avec l'IA. F5 fournit des services de livraison, de performance et de sécurité de pointe qui s'étendent à l'ensemble de votre environnement d'applications distribuées.  

Que vous exécutiez des charges de travail d'IA dans un entrepôt ou dans un bureau d'entreprise, les solutions unifiées de F5 étendent des services d'application et de sécurité cohérents sur les clouds publics, les clouds privés, Kubernetes natif et Edge, vous aidant à réduire la complexité de l'IA tout en offrant une évolutivité et des performances inégalées. Interconnectez en toute sécurité les différents éléments des applications d'IA sur différents emplacements, environnements et clouds pour tirer pleinement parti des avantages de ce nouveau paradigme d'application moderne.  

Alimentez et protégez vos applications basées sur l'IA avec F5

F5 alimente et sécurise les charges de travail d'IA modernes, garantissant la distribution et la protection dans divers écosystèmes d'IA avec des performances élevées et une sécurité complète. Les solutions de sécurité et de livraison de charge de travail d'IA de F5 connectent en toute sécurité les modèles de formation et d'inférence, peu importe où et comment ils sont distribués, aux utilisateurs et aux applications qui en ont besoin, où qu'ils se trouvent. Bénéficiez de performances prévisibles et d’une structure de données sous-jacente unifiée qui prend en charge la formation, le perfectionnement, le déploiement et la gestion des modèles d’IA et de ML à grande échelle. Transformez facilement vos données en informations avec une plus grande efficacité et une sécurité renforcée et plus approfondie avec F5. 

Principales caractéristiques

Solution de gestion unifiée

Connectivité réseau multicloud, livraison d'applications et d'API, gestion simplifiée et sécurité des applications d'IA via une seule et même interface.

Réseau multi-cloud sécurisé

Structure indépendante du cloud qui connecte les applications, les API et les charges de travail d'IA où qu'elles se trouvent.

Entrée et inférence distribuées

Couche d'abstraction pour le contrôle, la mise à l'échelle, la sécurisation et la surveillance de la formation, du réglage fin et de l'inférence LLM dans le centre de données, les clouds et la périphérie.

Protection API et LLM

Découverte dynamique et protection d'exécution automatisée des API et des grands modèles linguistiques (LLM).

Alimentez et protégez votre parcours d'IA

Flexibilité pour déployer des charges de travail d'IA n'importe où

F5 offre la flexibilité nécessaire pour fournir l'IA à proximité de vos données, du centre de données à la périphérie, afin de maximiser la précision, les informations, les performances, la rentabilité et la sécurité.  

F5® Distributed Cloud Network Connect et F5®Distributed Cloud App Connect permettent de déployer des modèles de formation dans des clouds privés ou dans le centre de données, tout en fournissant une connectivité sécurisée aux sources de données qui se trouvent dans le cloud ou en périphérie. 

Faisant partie du portefeuille de services cloud distribués F5®, Distributed Cloud Network Connect fournit une connectivité de couche 3 dans n'importe quel environnement ou fournisseur de cloud, y compris les centres de données sur site et les sites périphériques, dans un outil basé sur SaaS. Il offre une visibilité de bout en bout, automatise la fourniture de liens et de services réseau et permet la création de politiques de sécurité cohérentes et basées sur l'intention sur tous les sites et fournisseurs. 

F5® Distributed Cloud App Stack déploie, gère et sécurise facilement les charges de travail d'IA avec Kubernetes de qualité de production uniforme, quel que soit l'emplacement, des clouds privés et publics aux emplacements périphériques. Il prend en charge les modèles d'IA à la périphérie locale avec un support GPU intégré qui garantit une disponibilité de hautes performances. Distributed Cloud App Stack simplifie le déploiement d'applications d'inférence AI/LLM en fournissant des applications et une sécurité sur n'importe quel nombre de sites périphériques avec des flux de travail centralisés. 

De plus, F5® NGINX® Connectivity Stack pour Kubernetes fournit des communications rapides, fiables et sécurisées pour les charges de travail AI/ML exécutées dans Kubernetes, sur site et dans le cloud. Un outil unique comprenant des fonctionnalités de contrôleur d'entrée, d'équilibrage de charge et de passerelle API, NGINX Connectivity Stack pour Kubernetes améliore la disponibilité, la protection et la visibilité à grande échelle, tout en réduisant la complexité et les coûts opérationnels. NGINX Connectivity Stack pour Kubernetes permet de faire évoluer, d'observer, de gouverner et de sécuriser les charges de travail d'IA de la périphérie au cloud avec une collection d'outils et d'intégrations qui améliorent l'expérience client tout en réduisant la complexité, en améliorant la disponibilité et en améliorant la visibilité en temps réel. 

Protégez les charges de travail de l'IA partout

Donnez à SecOps les moyens de sécuriser les applications et les interfaces API qui sont le canal vers les charges de travail de l'IA et de s'adapter aux attaques adverses sur les modèles et environnements d'IA en rationalisant les protections WAF, bot, API et DDoS à partir d'un point de contrôle unique. 

Avoir une visibilité sur toutes les charges de travail de l'IA sur la pile hybride et multicloud est essentiel pour répondre aux problèmes d'utilisation de l'IA fantôme, entre autres, qui mettent en danger les données propriétaires. L'ajout de charges de travail gen-AI à un environnement d'application déjà distribué étend logiquement la surface de menace de l'entreprise, créant des opportunités d'attaques par déni de service (DoS) de modèle, d'empoisonnement des données de formation et d'exploits d'API.  

Tirez parti de F5® Distributed Cloud Web App et de la protection des API (WAAP) pour garantir la sécurité et la gouvernance des modèles de données afin de protéger la propriété intellectuelle contre toute utilisation involontaire. Bénéficiez des avantages des politiques de sécurité de type « cliquez pour activer, exécutez n'importe où » pour une protection cohérente et reproductible, une couverture mondiale et une application efficace. Une approche pilotée par API pour la protection de la charge de travail permet une meilleure collaboration entre le réseau, les opérations de sécurité et les développeurs.  

Avec Distributed Cloud WAAP, les organisations peuvent simplifier leur chemin vers une sécurité efficace des charges de travail de l’IA sans sacrifier l’innovation commerciale continue. Cela comprend la fourniture d’une approche complète de l’analyse d’exécution et de la protection des API avec une combinaison de fonctionnalités de gestion et d’application. Surveillez facilement et efficacement tous les points de terminaison d'API et les chemins d'accès aux applications : découvrez et suivez les API inconnues ou fantômes, et sécurisez-les grâce à une inspection continue et à l'application du schéma. Les solutions de sécurité API de F5 protègent les API qui permettent des interactions spécifiques à l’IA, atténuent les risques associés aux accès non autorisés, aux violations de données, aux abus et aux vulnérabilités critiques. Cela garantit que les applications et toutes les charges de travail d'IA critiques fonctionnent de manière transparente et sécurisée. 

Protégez-vous contre les robots malveillants, y compris ceux qui tentent de manipuler les LLM, avec une plateforme qui s'adapte aux tentatives de réoutillage d'un attaquant sur des milliers d'applications et de charges de travail d'IA parmi les plus fréquentées au monde. Bénéficiez d'une protection anti-bot hautement efficace basée sur une analyse inégalée des appareils et des signaux comportementaux pour démasquer et atténuer les attaques automatisées de robots malveillants. De plus, assurez-vous que vos données sont en sécurité pendant le transit grâce à Distributed Cloud Network Connect de F5. Bénéficiez d'une visibilité universelle, d'une découverte dynamique, d'informations basées sur l'IA et d'une correction automatique avec F5. 

Connectez automatiquement les charges de travail d'IA distribuées en quelques minutes

Supprimez la complexité pour libérer l'agilité et l'innovation de l'entreprise en connectant automatiquement les charges de travail d'IA distribuées entre les environnements en faisant abstraction de l'infrastructure sous-jacente. 

F5® Distributed Cloud Secure Multi-Cloud Network (MCN) réduit la complexité de la gestion et du déploiement des charges de travail d'IA.  Connectez automatiquement les charges de travail d’IA distribuées dans votre environnement (cloud, multicloud, edge) sans avoir à vous soucier de l’infrastructure sous-jacente. Optimisez la valeur de votre initiative d’IA en extrayant des analyses de données qui combinent et corrélent les données de vos charges de travail. Établissez un point de contrôle central pour la gestion des politiques de toute application ou charge de travail d'IA, où que vous soyez. 

Les clients qui exécutent des applications d'IA de classe entreprise et exigent une solution puissante de classe entreprise voudront tirer parti des avantages du MCN sécurisé dans le cloud distribué de F5 pour étendre la sécurité et les services des applications aux déploiements publics et hybrides, à Kubernetes natif et aux sites périphériques.  

Figure 1 : Les solutions F5 connectent en toute sécurité les charges de travail de l'IA et distribuent les inférences à la périphérie
Figure 1 : Les solutions F5 connectent en toute sécurité les charges de travail de l'IA et distribuent les inférences à la périphérie

Sécurité uniforme dans toutes les applications

Connectez, sécurisez et gérez les applications et les charges de travail dans le cloud, en périphérie ou sur le réseau mondial F5. Distributed Cloud App Stack simplifie la manière dont les applications de formation d'IA sont gérées, déployées et livrées. Envoyez des mises à jour de logiciels et de systèmes d'exploitation aux sites, le tout en quelques clics. 

Performances accélérées de la charge de travail de l'IA

Les charges de travail de l’IA, en particulier celles liées à l’IA générative, nécessitent des ressources de calcul importantes. Les solutions d’accélération des applications de F5 sont conçues pour optimiser les performances des charges de travail de l’IA, notamment en partageant efficacement les ressources GPU.  En optimisant l'efficacité, en réduisant la latence et en améliorant les temps de réponse, F5 accélère la livraison des prédictions de l'IA, garantissant une expérience utilisateur transparente et prenant en charge la prise de décision en temps réel dans les applications pilotées par l'IA. 

Gestion globale du trafic des charges de travail de l'IA

Pour les organisations ayant une présence mondiale, les solutions de gestion du trafic mondial de F5 jouent un rôle essentiel dans l’optimisation du placement des charges de travail de l’IA et la garantie de la souveraineté des données. Ces solutions répartissent efficacement les charges de travail de l'IA sur des centres de données et des régions cloud géographiquement dispersés, améliorant ainsi les performances tout en garantissant une haute disponibilité et une redondance pour l'IA critique et les applications pilotées par l'IA. 

Analyse basée sur l'IA

F5 exploite la puissance de l'IA et du ML pour fournir des informations exploitables sur les performances et la sécurité des charges de travail de l'IA. La surveillance et l'analyse continues des modèles de trafic et du comportement des applications permettent aux organisations de prendre des décisions basées sur les données concernant le placement de la charge de travail et l'allocation des ressources, garantissant ainsi des performances optimales des charges de travail de l'IA. 

Conclusion

Alimentez et protégez votre IA avec F5

L'intelligence artificielle poursuit sa progression dans toutes les facettes de la vie et des affaires modernes, l'IA générative prenant la tête. Pour soutenir cette évolution, les entreprises doivent s’assurer que leur infrastructure peut tirer parti des avantages de l’IA pour minimiser le décalage, la latence et les risques. Alors que les organisations naviguent dans les complexités de l’IA, y compris l’IA générative et les charges de travail de l’IA, F5 reste un partenaire de confiance, permettant aux entreprises d’exploiter pleinement les merveilles et les avantages de l’IA dans le vaste écosystème de l’IA générative.

F5 alimente et protège votre IA avec l'IA, offrant des performances de pointe, ainsi que des services de livraison et de sécurité qui s'étendent sur l'ensemble de l'environnement d'application distribué. Que vous exécutiez des charges de travail d’IA dans un entrepôt ou dans un bureau d’entreprise, mettez des outils puissants entre les mains des employés et des partenaires pour obtenir de nouvelles informations et générer de nouvelles efficacités. Grâce à des mesures de sécurité robustes alimentées par une télémétrie Big Data étendue, les clients acquièrent des mesures proactives pour atténuer les risques évolutifs de l'IA. Cela permet aux organisations de maintenir ou d’atteindre la pointe de l’innovation tout en étant bien préparées aux défis et aux opportunités de ce paysage technologique en évolution rapide et transformateur. 

Ressources

En vedette

Découvrez comment l’IA peut améliorer la sécurité et l’efficacité des entreprises, et pourquoi vous devez disposer d’un réseau multicloud sécurisé pour adopter efficacement l’IA.

Prochaines étapes

Découvrez comment les produits et solutions F5 peuvent vous permettre d'atteindre vos objectifs.

Contactez F5