Il existe un vieux proverbe qui s’applique très bien à l’IA : « un voyage de mille kilomètres commence par un seul pas ».
Les applications et les écosystèmes de l’IA prennent d’assaut le monde, obligeant chaque organisation à évaluer son état de préparation. Chez F5, nous observons deux types d’organisations qui se lancent dans l’IA : celles qui développent des solutions différenciées grâce à des investissements stratégiques tels que des véhicules autonomes ou des modèles de langage à grande échelle (LLM) et les entreprises qui déploient et optimisent l’IA pour l’efficacité et l’innovation organisationnelle. Les chefs d’entreprise sont impatients de déployer des fonctionnalités et des applications d’IA génératives pour augmenter la productivité, tandis que les responsables de la sécurité et de la gestion des risques s’efforcent de garantir la gouvernance pour une adoption sûre des applications d’IA émergentes et un écosystème en plein essor d’infrastructures, d’outils, de modèles, de cadres et de services associés pour les fournir, les optimiser et les sécuriser. Les usines d’IA apparaissent comme un modèle pour la mise en œuvre de produits et services différenciés par l’IA.
Alors, l’IA est-elle un battage médiatique ? Une frénésie ? Une révolution ? Ou une apocalypse ? L'avenir reste à voir.
Si vous prenez du recul et regardez la situation dans son ensemble, une chose devient claire : le tissu conjonctif des applications d’IA sont les API. En fait, un thème commun que nous discutons avec nos clients internationaux est « Un monde d’IA est un monde d’API ». Les API sont les interfaces que nous utilisons pour former des modèles d’IA et utiliser ces modèles. Ce sont également les mêmes interfaces que les mauvais acteurs utilisent pour voler des données à partir de modèles, tenter de jailbreaker et d’abuser des modèles d’IA, et même inverser et voler les modèles eux-mêmes. De la même manière que les défenseurs ont manqué l’importance de la visibilité et de la sécurité des API dans le cloud et l’évolution vers des applications modernes basées sur des microservices, le grand moment de révélation est la prise de conscience que nous ne pouvons pas sécuriser les modèles d’IA sans sécuriser les interfaces qui les servent.
Étant donné le rôle central des API dans la création et la diffusion applications basées sur l'IA, il est essentiel de concevoir la visibilité, la sécurité et la gouvernance des API dans le processus de développement et de formation de l'IA à un stade précoce. Il est également essentiel que les modèles d’utilisation normaux et les contrôles tels que les limites de débit et la assainissement des données soient intégrés lors de la phase de conception. Avec cette approche, l’adoption d’une IA sûre devient moins intimidante. La sécurité des API est impérative pour protéger les applications d’IA, car les applications d’IA génératives dépendent particulièrement des API. Ainsi commence la première étape du voyage de l’IA. Voici quatre affirmations clés expliquant pourquoi la sécurité des API est nécessaire pour la sécurité de l’IA et l’adoption sûre des usines d’IA.
Plus tôt dans notre série sur les usines d’IA, nous avons défini une usine d’IA comme un investissement massif en matière de stockage, de réseau et de calcul répondant à des exigences de formation et d’inférence à haut volume et à hautes performances. Comme les usines de fabrication traditionnelles, les usines d’IA exploitent des modèles d’IA pré-entraînés pour transformer les données brutes en intelligence. Les applications d’IA sont tout simplement les applications les plus modernes des applications modernes, fortement connectées via des API et hautement distribuées.
Nous partons du principe qu’une application d’IA est une application moderne, avec les mêmes défis familiers en matière de livraison, de sécurité et d’exploitation, et que les modèles d’IA augmenteront radicalement le nombre d’API nécessitant livraison et sécurité.
Alors, mission accomplie ! On a compris, n'est-ce pas ? Nous savons comment fournir des applications modernes en toute sécurité. Nous disposons de bonnes pratiques en matière de sécurité des application bien établies et comprenons les subtilités de la protection des API. Nous proposons des solutions qui offrent une protection complète et une sécurité cohérente dans les environnements distribués.
Pas si vite ! Accrochez-vous à vos GPT pendant que nous plongeons brièvement dans les détails.
Bien que les applications d’IA partagent les mêmes risques et défis que celles des applications modernes (qui sont toutes deux essentiellement des systèmes basés sur des API), les applications d’IA ont des implications spécifiques : formation, réglage fin, inférence, génération augmentée de récupération (RAG) et points d’insertion dans les usines d’IA.
Alors oui, les applications d’IA, comme les applications modernes, ont une nature hautement distribuée, créent une prolifération d’outils et compliquent les efforts visant à maintenir une visibilité cohérente, une application uniforme des politiques de sécurité et une correction universelle des menaces dans les architectures hybrides et multicloud. En plus de faire face à cette « boule de feu » de risques et de complexité, les défenseurs doivent faire face à la nature aléatoire des demandes humaines et à la nature très variable du contenu obtenu par l’IA qui peut conduire à des réponses imprévisibles de l’IA, ainsi qu’à des considérations sur la normalisation des données, la tokenisation, l’intégration et le remplissage des bases de données vectorielles.
Le regroupement des données dans des usines d’IA crée un écosystème d’entreprise holistique et connecté, et l’intégration et les interfaces entre toutes ces pièces mobiles nécessitent une posture de sécurité API robuste.
Les entreprises d’aujourd’hui gèrent un nombre croissant d’applications et d’API dans un environnement hybride multicloud de plus en plus complexe. Chez F5, nous appelons le risque et la complexité croissants la « boule de feu ».
L’essor des systèmes basés sur les API résultant des efforts de modernisation rapides a conduit à une prolifération d’architectures dans les centres de données, les clouds publics et la périphérie. Cela a été relaté par la recherche annuelle de F5, y compris notre rapport 2024 sur l'état de la stratégie application : Sécurité des API | Rapport sur la vie secrète des API .
La complexité des architectures hybrides et multicloud est intensifiée par les applications d’IA. Les organisations évaluent rapidement et emploient avec diligence des stratégies de gouvernance pour une litanie d'applications d'IA et de modèles d'IA sous-jacents, décidant finalement d'une solution IA-SaaS, hébergée dans le cloud, auto-hébergée ou hébergée en périphérie. approche , parfois en fonction d'un cas d'utilisation et d'une application. Par exemple, certains cas d’utilisation impliquent une formation dans le centre de données avant la production, lorsque l’inférence est effectuée en périphérie.
La connectivité à ces modèles et aux services associés est largement facilitée par les API. Par exemple : des connexions à des services populaires pour l’inférence. Les applications d’IA entraînent une augmentation exponentielle de l’utilisation des API, car une seule API peut avoir des milliers de points de terminaison et les appels d’API peuvent être enfouis au plus profond de la logique métier, hors de portée des équipes de sécurité. Cela conduit à une complexité intenable et à de graves conséquences en matière de gestion des risques.
Il s’avère que le cloud n’a pas dévoré le monde, mais les API l’ont fait. Et l’IA va tout manger. Comme décrit dans notre article de blog, Six raisons pour lesquelles le multicloud hybride est la nouvelle norme pour les entreprises , un environnement hautement distribué offre une flexibilité pour le déploiement d'applications d'IA et de services associés qui garantissent les performances, la sécurité, l'efficacité et la précision. Ceci est particulièrement important pour les problèmes de gravité des données . Il n’est pas surprenant que 80 % des organisations exécutent des applications d’IA dans le cloud public et 54 % les exécutent sur site. Quelle que soit l’approche, chaque facette de l’architecture doit être sécurisée, et la protection des API est le premier point de départ.
Il est essentiel de protéger les API qui constituent les passerelles vers les fonctionnalités des application d’IA et les échanges de données contre les risques de sécurité. Bien que les mêmes exploitations de vulnérabilité, les mêmes attaques de logique métier, les mêmes abus de robots et les mêmes risques de déni de service (DoS) s'appliquent, il existe des considérations supplémentaires pour les points d'insertion nouveaux et modifiés au sein des usines d'IA et les risques pour les LLM via les interfaces de traitement du langage naturel (NLP), les plugins, les connecteurs de données et les services en aval, pendant la formation, le réglage fin, l'inférence et le RAG. De plus, les attaques connues comme les attaques DoS nécessitent des considérations supplémentaires ; les mesures d’atténuation pour les attaques DDoS volumétriques et les attaques DoS application L7 ne compensent pas complètement les risques liés aux attaques DoS de modèle . Les applications d’IA présentent également un paradoxe d’explicabilité, soulignant l’importance de la traçabilité pour aider à compenser les hallucinations, les biais et la désinformation.
Et les attaquants ne restent pas les bras croisés. L’IA générative démocratise les attaques et augmente la sophistication des campagnes des cybercriminels et des États-nations. Les agents LLM peuvent désormais pirater de manière autonome des applications Web et des API, par exemple en effectuant des tâches aussi complexes que l'extraction de schémas de bases de données à l'aveugle et les injections SQL sans avoir besoin de connaître la vulnérabilité au préalable.
Alors que les nouveaux risques liés à l’IA suscitent beaucoup de buzz, l’importance de la sécurité des API pour les usines d’IA ne peut être surestimée. C'est urgent. L’augmentation de la surface d’API pour les applications d’IA est stupéfiante. Chaque RSSI doit intégrer la sécurité des API dans le cadre des programmes de gouvernance de l'IA, car le mantra fondamental de tout guide de survie du RSSI devrait être « vous ne pouvez pas protéger ce que vous ne pouvez pas voir ». Si vous ne disposez pas d’un inventaire des interfaces derrière vos applications d’IA, vous disposez d’un modèle de menace incomplet et de lacunes dans votre posture de sécurité .
Les applications de l’IA sont dynamiques, variables et imprévisibles. L’adoption sûre des applications d’IA nécessite de mettre davantage l’accent sur l’efficacité, la création de politiques solides et l’automatisation des opérations. Les technologies d’inspection joueront un rôle essentiel et évolutif en matière de sécurité.
Pour la sécurité des API au sein des applications et des écosystèmes d'IA, en particulier, les organisations devront compenser la probabilité accrue d'une utilisation dangereuse des API tierces en concevant la sécurité des appels d'API sortants et des cas d'utilisation associés, en plus des contrôles de sécurité entrants qui sont largement en place. Les solutions de gestion des robots ne peuvent pas s’appuyer uniquement sur l’identification « humaine » ou « machine », compte tenu de l’augmentation du trafic interservices et Est-Ouest , par exemple, à partir des flux de travail RAG. Et comme la chaîne d’approvisionnement des applications LLM peut être vulnérable et avoir un impact sur l’intégrité des données de formation, des modèles et des plateformes de déploiement (qui proviennent souvent de tiers et peuvent être manipulées par des attaques de falsification ou d’empoisonnement), des contrôles de sécurité doivent être mis en œuvre partout : dans le centre de données, dans les clouds, à la périphérie et depuis le code, en passant par les tests, jusqu’à la production.
La technologie AI Gateway jouera un rôle clé en aidant les équipes de sécurité et de gestion des risques à atténuer les risques pour les LLM tels que l’injection rapide et la divulgation d’informations sensibles, mais la première étape du parcours de sécurité de l’IA commence par la sécurisation des API qui connectent les applications d’IA et les écosystèmes d’IA en rendant la sécurité intrinsèque tout au long du cycle de vie de l’application d’IA.
De la protection des interactions entre une application front-end et une API de service d'inférence à l'inspection des interactions des utilisateurs avec les applications AI-SaaS et à la protection de la connectivité entre les plug-ins, les connecteurs de données et les services en aval, l'adoption sûre des applications d'IA et des usines d'IA dépend de la sécurité des API.
La plateforme F5 offre une défense continue des API et une posture de sécurité cohérente, et permet aux chefs d'entreprise d'innover en toute confiance en donnant aux équipes de sécurité et de gestion des risques les capacités dont elles ont besoin pour créer en toute sécurité des usines d'IA.
L'accent mis par F5 sur l'IA ne s'arrête pas là : découvrez comment F5 sécurise et fournit des applications d'IA partout .
Vous souhaitez en savoir plus sur les usines d’IA ? Découvrez d’autres articles de notre série de blogs sur l’usine d’IA :