IA générative : Sécurité et optimisation des applications

Explorez les risques de sécurité et les défis d’optimisation pour préparer une approche équilibrée des applications basées sur l’IA générative.

L'IA générative (ou GenAI) peut produire de manière autonome du nouveau contenu, notamment du texte, des images ou de l'audio, en apprenant à partir de modèles et d'exemples dans les données existantes. Il s’appuie sur des modèles d’apprentissage profond pour générer des résultats divers et contextuellement pertinents, imitant la créativité et les capacités de résolution de problèmes des humains.

Opportunités et préoccupations autour de GenAI

Les particuliers et les organisations utilisent l’IA générative pour une grande variété d’utilisations et d’applications, notamment la création de contenu, le traitement du langage naturel et la synthèse de données. Dans la création de contenu, il aide à générer tout, de la poésie, des essais universitaires et des supports marketing aux images, vidéos, musique et code informatique. Dans le domaine du traitement du langage naturel, l’IA générative améliore les chatbots et la traduction linguistique, et permet la synthèse de vastes quantités de données pour alimenter la créativité dans la conception, le développement et le prototypage de produits. Le déploiement d'applications GenAI au sein d'une organisation peut aider les travailleurs humains en contribuant à une prise de décision meilleure et plus éclairée et à une efficacité opérationnelle améliorée, conduisant à une rentabilité et une croissance de l'entreprise accrues. 

Cependant, l’IA générative soulève également d’importantes préoccupations en matière de sécurité et d’éthique , notamment le risque de biais, de cyberattaques renforcées et de risques pour la vie privée. Par exemple, l’IA générative peut utiliser de grands modèles linguistiques (LLM) qui sont formés à partir de contenu systématiquement extrait d’Internet, notamment des livres, des publications, des sites Web et des articles en ligne. Les modèles génératifs apprennent à partir des données de formation, et si les données utilisées sont biaisées, le modèle peut perpétuer et même amplifier les biais existants dans ses résultats. En outre, l’IA générative peut générer par inadvertance des informations trompeuses ou fausses (appelées hallucinations), conduisant à la propagation de fausses informations. Les mauvais acteurs peuvent également utiliser GenAI pour diffuser et affiner la propagande pouvant conduire à des troubles sociaux. L'IA générative est désormais couramment utilisée par des acteurs malveillants pour créer des deepfakes, des contenus réalistes mais manipulés qui peuvent être trompeurs ou malveillants. Les deepfakes peuvent être utilisés pour le vol d’identité, l’ingénierie sociale ou les attaques de phishing, la diffusion de fausses informations ou la création de contenu trompeur qui constitue une menace pour les individus et la société. Les marchés du Dark Web proposent désormais un outil d'IA FraudGPT qui peut être utilisé pour créer des e-mails de spear-phishing, créer des logiciels malveillants indétectables, générer des pages de phishing, identifier des sites Web vulnérables et même proposer des tutoriels sur les techniques de piratage.

Le contenu utilisé pour former les LLM, potentiellement consulté et utilisé pour la formation de modèles sans consentement, peut également contenir des informations personnelles et sensibles, ainsi que du contenu protégé par des droits d'auteur ou exclusif. Étant donné que ces informations privées font toutes partie du contenu sur lequel l’IA s’appuie pour générer du contenu, il existe un risque bien réel que les résultats révèlent par inadvertance des données sensibles ou des informations privées. 

Les fournisseurs d’IA générative peuvent ne pas offrir aux particuliers ou aux organisations un moyen de confirmer si leurs informations personnelles ou exclusives ont été stockées ou utilisées à des fins de formation, ou de demander que ces informations soient supprimées, en vertu des directives sur le « droit à l’oubli » ou le « droit à l’effacement » des réglementations gouvernementales telles que le règlement général sur la protection des données (RGPD) de l’UE. La formation LLM implique également souvent l’agrégation et l’utilisation de données provenant de différentes régions ou pays. Cela peut conduire à des scénarios susceptibles de compromettre les réglementations relatives à la souveraineté des données. 

Types d'applications d'IA générative

L’IA générative a de multiples applications pour les organisations et les industries, et l’intégration judicieuse de GenAI dans des flux de travail appropriés peut aider les entreprises à obtenir un avantage concurrentiel. Ces applications incluent :

  • Création de contenu écrit. L'IA générative peut générer de manière autonome du texte de type humain pour des articles, des blogs, des messages personnalisés, des textes publicitaires pour des campagnes et de nombreuses autres utilisations. Bien que le contenu généré par l'IA nécessite généralement une révision par des humains, il peut faciliter la création de contenu en produisant des premières ébauches dans le style et la longueur souhaités, en résumant ou en simplifiant le contenu écrit existant et en fournissant des aperçus de contenu pour rationaliser le processus de rédaction pour les rédacteurs humains. 
  • Création d'images et de vidéos. Les modèles génératifs peuvent synthétiser ou modifier des images et des vidéos dérivées d'entrées textuelles ou visuelles, créant un contenu visuel unique et réaliste basé sur un paramètre, un sujet, un style ou un emplacement demandé. Ces supports visuels ont de nombreuses applications commerciales dans les médias, le design, la publicité, le marketing, l’éducation et le divertissement. GenAI peut également créer des personnages et des scènes réalistes pour les jeux et les environnements virtuels. 
  • Automatisation améliorée du support client. L’IA générative peut contribuer au développement de chatbots avancés et d’agents conversationnels capables d’engager des conversations plus naturelles et contextuellement pertinentes, en particulier dans les situations où les réponses prédéfinies peuvent être insuffisantes. Les agents conversationnels adaptatifs peuvent générer dynamiquement du contenu, tel que des recommandations de produits à la volée ou des réponses adaptées aux préférences spécifiques des utilisateurs. Ces chatbots et agents contextuels peuvent aider les entreprises à économiser du temps et des ressources tout en améliorant l'expérience client et en réduisant les coûts d'assistance.
  • Génération de code. L’utilisation de GenAI pour la génération de code peut rendre le processus de développement logiciel plus efficace et productif. Il peut aider au développement de code de nombreuses manières, notamment en complétant automatiquement le code (en suggérant des complétions de code au fur et à mesure que les développeurs tapent), en vérifiant la qualité du code, les erreurs et les bogues, et en automatisant la modernisation du code existant. La génération de code automatisée facilite le prototypage rapide, permettant aux développeurs d'expérimenter rapidement des idées et de tester différentes options de codage pour des flux de travail de développement logiciel plus efficaces. GenAI ouvre également des opportunités de codage aux personnes non techniques, car les utilisateurs peuvent saisir une description en langage naturel de ce que le code doit faire, et l'outil de code génératif crée automatiquement le code.

Qu'est-ce que la sécurité de l'IA générative ?

La sécurité de l’IA générative est un ensemble de pratiques et de mesures mises en œuvre pour répondre aux risques et défis de sécurité potentiels associés au développement, au déploiement et à l’utilisation d’applications basées sur GenAI. À mesure que ces technologies deviennent plus répandues et plus sophistiquées, les préoccupations liées à la sécurité deviennent de plus en plus importantes, d’autant plus que les charges de travail de l’IA sont devenues une surface d’attaque privilégiée pour les cybercriminels. Pour un examen approfondi des risques de sécurité liés au déploiement et à la gestion des applications GenAI, consultez le Top 10 de l'OWASP pour les applications à grands modèles linguistiques , qui vise à sensibiliser à leurs vulnérabilités, suggère des stratégies de correction et cherche à améliorer la posture de sécurité des applications LLM.  

Risques de sécurité pour l'infrastructure GenAI

Bien que GenAI puisse sembler extrêmement puissant et presque magique , il exploite certaines des mêmes infrastructures, interfaces et composants logiciels que les charges de travail traditionnelles et partage donc les mêmes risques, tels que les attaques par injection et les attaques qui contournent les contrôles d'authentification et d'autorisation faibles. Une infrastructure fiable, performante et sécurisée est nécessaire au fonctionnement efficace de modèles d’IA génératifs sophistiqués. 

Les attaques d'infrastructure incluent également le déni de service (DoS) , dans lequel les attaquants surchargent les ressources matérielles, telles que les processeurs, la mémoire ou le stockage, pour perturber l'exécution des charges de travail d'IA générative. Ces attaques d’épuisement des ressources peuvent entraîner une dégradation des performances ou une instabilité du système, affectant la disponibilité et la fiabilité du système d’IA et compromettant la capacité du modèle à apprendre et à répondre aux invites de l’utilisateur.

L’accès non autorisé à l’infrastructure du système d’IA constitue également une menace importante pour les flux de travail GenAI, affectant potentiellement la confidentialité et l’intégrité du système. Les intrusions dans l’infrastructure du système peuvent conduire à des activités malveillantes telles que le vol de données, l’interruption de service ou l’insertion de code malveillant. Cela met non seulement en péril la sécurité des modèles et des données de l’IA, mais peut également entraîner la génération et la diffusion de résultats inexacts ou nuisibles.

Risques de sécurité pour les données de formation GenAI

Le point de départ de toute application GenAI est constitué par les données de formation que les modèles d’apprentissage automatique utilisent pour reconnaître les modèles souhaités, faire des prédictions et effectuer des tâches. Pour qu’un LLM soit hautement performant, les données sur lesquelles il est formé doivent couvrir un éventail large et diversifié de domaines, de genres et de sources. Cependant, le processus de formation du modèle, qu’il utilise des modèles prêts à l’emploi, pré-entraînés ou des modèles sur mesure formés sur des ensembles de données personnalisés, est vulnérable aux manipulations et aux attaques. 

Les attaques adverses impliquent des acteurs malveillants qui manipulent intentionnellement les données d’entrée pour induire en erreur ou compromettre les performances des modèles d’IA génératifs, un processus que l’OWASP identifie comme un empoisonnement des données de formation . Cela inclut également la manipulation de données pour introduire des vulnérabilités, des portes dérobées ou des biais qui pourraient compromettre la sécurité, l’efficacité ou le comportement éthique du modèle. Ces vulnérabilités introduisent également des vecteurs d’attaque que les mauvais acteurs peuvent exploiter pour obtenir un accès non autorisé à des informations sensibles. Les chaînes d’approvisionnement de modèles compromises peuvent entraîner des résultats biaisés ou peu fiables, des violations de la confidentialité et l’exécution de code non autorisé. Ceci est particulièrement préoccupant pour les applications GenAI car elles utilisent de vastes écosystèmes de plugins. 

Menaces de sécurité pour les modèles GenAI

Les applications GenAI utilisent des LLM qui génèrent des sorties basées sur des ensembles de données de formation, des réseaux neuronaux et une architecture d'apprentissage en profondeur pour générer des réponses aux invites des utilisateurs. Les modèles d’IA servent de base à l’identification des modèles, des structures et des relations au sein des données existantes qui servent à générer de nouveaux résultats basés sur cette compréhension. 

Les modèles d’IA sont sensibles à une variété d’attaques, notamment les injections d’invites et autres menaces d’entrée qui manipulent les LLM en saisissant des invites soigneusement conçues qui obligent le modèle à ignorer les instructions précédentes ou à effectuer des actions involontaires. Les injections rapides sont parmi les causes les plus courantes de désinformation et de faux contenus générés par les modèles d’IA. Les applications GenAI sont également exposées à des vulnérabilités telles que la falsification de requêtes côté serveur (SSRF) , qui permet aux attaquants d'effectuer des requêtes involontaires ou d'accéder à des ressources restreintes, et l'exécution de code à distance (RCE) , qui peut amener l'application à exécuter du code malveillant ou d'autres actions sur le système sous-jacent.

Bonnes pratiques pour la sécurité de l'IA générative

La protection des systèmes GenAI nécessite une approche multicouche de la sécurité. Cela devrait impliquer des protocoles d’authentification et d’autorisation robustes , y compris des contrôles d’accès stricts pour garantir que seul le personnel autorisé a accès aux composants critiques du système. Mettre en œuvre une gestion proactive des vulnérabilités , notamment des mises à jour logicielles régulières et une surveillance continue pour une détection précoce et la prévention des tentatives d'intrusion. Pour contrer les attaques DoS, intégrez une redondance dans le système, notamment en utilisant des serveurs de sauvegarde et des protocoles de sécurité pour garantir une disponibilité de traitement permanente. Les LLM peuvent également être sujets à un déni de service, car les invites utilisateur génèrent des jetons et les LLM ont des fenêtres de contexte fixes, qui peuvent être ciblées dans le cadre des efforts visant à épuiser les ressources du système. 

Les organisations doivent mettre en œuvre des processus de contrôle rigoureux pour vérifier la chaîne d’approvisionnement des données de formation et sélectionner uniquement des modèles pré-entraînés provenant de sources fiables. Étant donné que la mauvaise qualité des données et les biais dans les données d'entraînement peuvent entraver la capacité du modèle à acquérir des représentations précises et à produire des résultats fiables, le prétraitement des données avant leur introduction dans un modèle génératif est essentiel pour une GenAI efficace. Le réglage fin des modèles est également essentiel dans de nombreux secteurs réglementés. Des techniques telles que le nettoyage, la normalisation et l’augmentation des données, ainsi que la détection et l’atténuation des biais peuvent aider à prévenir les erreurs et l’empoisonnement des données.

Mettez en œuvre des contrôles d’accès robustes, des méthodes de cryptage et des pratiques de déploiement sécurisées , y compris l’isolation du réseau et des configurations de pare-feu appropriées, pour protéger les modèles d’IA génératifs contre les menaces de sécurité potentielles. Pour éviter les injections rapides, utilisez des techniques telles que la désinfection des invites, la validation des entrées et le filtrage des invites pour garantir que le modèle n'est pas manipulé par des entrées conçues de manière malveillante. Les risques d’exécution de code non autorisée peuvent être réduits en utilisant des pratiques de codage sécurisées, en effectuant des examens de code approfondis et en utilisant des défenses d’exécution telles que le sandboxing de code. L’injection rapide représente l’un des risques les plus graves et les plus complexes des applications GenAI. 

Optimisation des modèles d'IA génératifs

Étant donné que le traitement GenAI peut nécessiter beaucoup de ressources, l’optimisation des modèles d’IA génératifs pour améliorer les performances et l’efficacité constitue une étape importante pour rendre les modèles plus rapides, plus évolutifs et plus économes en énergie. 

Les environnements multicloud sont devenus la base des applications basées sur l’IA en raison de leur capacité à connecter les charges de travail de l’IA et les plugins de l’écosystème dans des environnements distribués. La mise en réseau multicloud (MCN) offre la flexibilité d'augmenter ou de diminuer dynamiquement les ressources en fonction des exigences de calcul des charges de travail d'IA générative, y compris les accélérateurs matériels tels que les unités de traitement graphique (GPU), avec des ressources de différents fournisseurs de cloud intégrées au traitement des données pour optimiser les performances et minimiser les délais. Le déploiement de modèles GenAI dans plusieurs régions cloud permet une distribution géographique du traitement, une latence réduite et des temps de réponse améliorés, ce qui est particulièrement important pour les applications d'IA distribuées en temps réel ou interactives. L’IA Edge apparaît comme une méthode inestimable pour améliorer l’expérience utilisateur. La distribution régionale des modèles GenAI peut également permettre aux organisations de stocker et de traiter les données conformément aux exigences de souveraineté des données.

La plateforme d'orchestration de conteneurs Kubernetes est la norme de facto pour l'exécution des charges de travail GenAI, fournissant l'infrastructure pour exécuter et faire évoluer les modèles d'IA dans des conteneurs afin de garantir une haute disponibilité et une utilisation efficace des ressources. Kubernetes agit comme un orchestrateur, gérant le déploiement et la surveillance de divers composants au sein de l'application d'IA, et garantissant que les modèles d'IA, les pipelines de traitement de données et d'autres services peuvent être gérés et mis à l'échelle efficacement. Les contrôleurs MCN et d'entrée sont essentiels en raison des différentes implémentations de Kubernetes et de la nécessité de provisionner uniformément les charges de travail, de diriger le trafic en toute sécurité et de distribuer les inférences.  

Les API fournissent le tissu conjonctif permettant à différentes parties de l'application d'IA d'échanger des données et des instructions, permettant à différents composants et services de communiquer entre eux. Les écosystèmes de plugins GenAI, par exemple, sont connectés via des appels API. Les solutions Kubernetes Ingress offrent des fonctionnalités intégrées d'équilibrage de charge, de limitation de débit et de contrôle d'accès, répartissant en toute sécurité le trafic sur plusieurs pods pour améliorer les performances de traitement globales des charges de travail de l'IA.

Les défis de l'optimisation GenAI

L’équilibre entre la vitesse et la qualité de sortie implique souvent des compromis pour l’optimisation de GenAI. L'obtention de résultats de haute qualité nécessite généralement des modèles et des calculs plus complexes et plus gourmands en ressources, tandis que l'optimisation des performances peut impliquer des simplifications de modèle qui peuvent avoir un impact sur la qualité du contenu généré. Des modèles plus complexes peuvent également nécessiter des temps de formation plus longs et conduire à une inférence plus lente, ce qui a un impact sur la vitesse du processus de formation et sur les performances des applications en temps réel. Il s’agit d’un problème particulier pour les modèles GenAI qui doivent s’adapter à des environnements dynamiques, ce qui peut nécessiter une optimisation continue et introduire des défis dans le maintien d’un équilibre entre qualité et performances. En plus des GPU, les unités centrales de traitement (CPU) et les unités de traitement de données (DPU) peuvent être utilisées pour les tâches de traitement, soulignant ainsi l'importance de la gestion intelligente du trafic et de la mise en commun des ressources.

Techniques d'optimisation GenAI

L’optimisation des modèles d’IA génératifs nécessite une prise en compte équilibrée – et des combinaisons – de plusieurs facteurs. 

L'élagage du modèle consiste à identifier et à supprimer les paramètres redondants ou moins cruciaux du modèle afin de réduire sa taille et ses exigences de calcul, dans le but de créer un modèle plus compact tout en préservant les performances. La quantification réduit les besoins en mémoire et la complexité de calcul des modèles GenAI en représentant des valeurs numériques avec une précision binaire inférieure, comme la conversion de nombres à virgule flottante en représentations à virgule fixe ou entières de moindre précision. Cela peut conduire à des besoins en mémoire moindres et à une efficacité accrue dans le déploiement et le stockage des modèles. 

L'apprentissage par transfert est une technique d'apprentissage automatique dans laquelle un modèle formé sur une tâche est adapté pour effectuer une autre tâche connexe, réduisant ainsi considérablement le temps et les ressources de calcul nécessaires à la formation, en particulier pour les modèles profonds et complexes. L’apprentissage par transfert facilite la réutilisation efficace des connaissances, permettant l’optimisation des modèles d’IA génératifs pour des applications spécifiques sans avoir besoin de ressources de calcul importantes. 

La distribution de la formation et de l'inférence du modèle sur plusieurs processeurs, appareils ou clouds optimise la formation du modèle et l'expérience utilisateur en exploitant les capacités de traitement parallèle. De plus, l’adaptation de l’architecture du modèle et du processus de formation pour tirer parti des capacités individuelles du matériel (par exemple, le processeur ou le GPU spécifique sur lequel il fonctionnera) peut optimiser le processus de formation et d’inférence pour améliorer les performances, en particulier si l’inférence peut être effectuée à proximité de l’utilisateur.

Exploitez F5 pour l'IA générative

L’IA générative a le potentiel d’offrir des avantages concurrentiels majeurs, mais pour que les organisations puissent pleinement exploiter ses avantages sans risque, elles doivent prendre les mesures nécessaires pour optimiser et sécuriser les charges de travail de l’IA dans des environnements divers et distribués. Cela nécessite non seulement d’améliorer l’efficacité des charges de travail de l’IA, mais également la gestion d’écosystèmes Kubernetes complexes, une intégration transparente et sécurisée des API et une gestion efficace des réseaux multi-cloud. 

F5 optimise les performances et la sécurité des charges de travail d'IA modernes, garantissant une distribution et une protection cohérentes des modèles et des données d'IA génératives dans l'ensemble de l'environnement d'application distribué, y compris les centres de données, les clouds publics, les clouds privés, le multicloud, Kubernetes natif et la périphérie. F5 fournit une structure de données sous-jacente unifiée qui prend en charge la formation, le perfectionnement, le déploiement et la gestion de modèles d'IA génératifs à grande échelle, garantissant une expérience utilisateur transparente et prenant en charge la prise de décision en temps réel dans les applications pilotées par l'IA. 

F5 propose une suite de solutions intégrées de sécurité, de livraison et d'optimisation des performances qui réduisent la complexité de l'IA générative tout en offrant une évolutivité et des performances prévisibles, avec une visibilité et une gestion centralisées via une seule fenêtre.

  • F5 Secure Multi-Cloud Networking (MCN) réduit la complexité de la gestion et du déploiement des charges de travail d'IA dans des environnements distribués (cloud, multicloud, edge), sans la complexité et la charge de gestion des solutions de connectivité point à point.
  • F5 Distributed Cloud Network Connect fournit une connectivité de couche 3 dans n'importe quel environnement ou fournisseur de cloud, y compris les centres de données sur site et les sites périphériques, dans un outil basé sur SaaS qui offre une visibilité de bout en bout, automatise le provisionnement des liens et des services réseau et permet la création de politiques de sécurité cohérentes et basées sur l'intention sur tous les sites et fournisseurs. 
  • F5 Distributed Cloud App Connect est un service qui fournit une connectivité et une orchestration d'application à application pour les charges de travail d'IA réparties sur plusieurs régions cloud, fournisseurs et sites périphériques.
  • F5 Distributed Cloud App Stack déploie, gère et sécurise facilement les charges de travail d'IA avec Kubernetes de qualité production uniforme dans tous les environnements, simplifiant la gestion du cycle de vie des charges de travail d'IA et fournissant une méthode pour distribuer l'inférence au bon processeur (CPU/GPU/DPU) dans les pools de ressources, même en périphérie pour maximiser les performances. 
  • F5 NGINX Connectivity Stack pour Kubernetes est un outil unique englobant les fonctionnalités de contrôleur d'entrée, d'équilibreur de charge et de passerelle API pour fournir des communications rapides, fiables et sécurisées pour les charges de travail AI/ML exécutées dans Kubernetes, améliorant la disponibilité, la protection et la visibilité à grande échelle, tout en réduisant la complexité et les coûts opérationnels. 
  • F5 Distributed Cloud Web App and API Protection (WAAP) protège les API qui permettent des interactions spécifiques à l'IA et atténue les risques associés aux accès non autorisés, aux violations de données, aux abus de logique métier et aux vulnérabilités critiques telles que SSRF et RCE tout en offrant une approche complète de l'analyse d'exécution et de la protection des API avec une combinaison de fonctionnalités de gestion et d'application.
  • F5 Distributed Cloud Bot Defense offre une protection très efficace contre les robots basée sur une analyse en temps réel des appareils et des signaux comportementaux pour démasquer et atténuer les attaques automatisées de robots malveillants, en s'adaptant rapidement aux tentatives de réoutillage des attaquants sur des milliers d'applications et de charges de travail d'IA les plus fréquentées au monde, neutralisant ainsi les mauvais acteurs qui utilisent des robots et une automatisation malveillante dans le but d'empoisonner les modèles LLM, d'infliger un déni de service et de diffuser de la propagande. 

En optimisant l’efficacité, en réduisant la latence et en améliorant les temps de réponse, les technologies F5 aident les organisations à bénéficier en toute sécurité des avantages de l’IA générative tout en garantissant une expérience utilisateur transparente et en prenant en charge la flexibilité nécessaire pour déployer des charges de travail d’IA n’importe où.