BLOG | BUREAU DU CTO

Qu'est-ce que l'IA générative et est-ce la voie vers l'AIOps ?

Miniature de Lori MacVittie
Lori MacVittie
Publié le 13 février 2023

Peut être. Ses applications sont certainement plus vastes que le simple fait de représenter une menace pour les moteurs de recherche traditionnels ou de rédiger des essais et des textes publicitaires pour le lycée.

Qu'est-ce que l'IA générative ?

L'IA générative est une application de l'apprentissage automatique qui peut créer une variété de contenus tels que du texte, des images ou de l'audio à partir d'invites en langage naturel. Il a gagné en popularité avec l’introduction de ChatGPT , un projet OpenAI, qui a entraîné une explosion de nouvelles utilisations dans tous les secteurs. 

Si vous n'avez pas essayé ChatGPT, je vous encourage à prendre un moment et à lui poser quelques questions. Demandez-lui de vous parler de vous ou de quelqu'un dans l'histoire ou d'expliquer comment quelque chose fonctionne. Bien que la prudence soit de mise (ChatGPT n'est pas toujours le bon choix), c'est une expérience révélatrice car c'est une nouvelle expérience. 

ChatGPT a fourni une preuve de concept pour l'IA générative. Cela nous a donné un aperçu des possibilités de travailler différemment et, pour nous, au bureau F5 du CTO, une exploration intéressante de la manière dont elle pourrait être appliquée à la distribution et à la sécurité des applications. 

De l'impératif au déclaratif puis au génératif

L’un des défis de l’infrastructure est de configurer la myriade d’appareils, de services et de systèmes nécessaires pour fournir et sécuriser une seule application. Les organisations s'appuient en moyenne sur 23 services d'application différents, si vous excluez les offres « en tant que service ». 

Maintenant, je n’ai pas besoin de vous dire que la configuration d’une application Web et d’un service de protection d’API est différente de la configuration d’un simple service d’équilibrage de charge. Cela signifie que les personnes responsables de la configuration et de l’exploitation des services d’application devront peut-être être des experts dans une douzaine de « langages » différents. 

L’industrie tente de résoudre ce problème depuis des années. Lorsque les API sont devenues le principal moyen de tout configurer, les services de distribution d’applications et de sécurité n’ont pas fait exception. Tout le monde a commencé avec des API impératives, qui ont simplement changé la façon dont vous émettez des commandes. Au lieu de taper des commandes sur une CLI, vous envoyez des commandes API via HTTP. 

Il est rapidement devenu évident que la taxe API induite par le recours aux API impératives était trop élevée, et l’industrie s’est tournée vers les API déclaratives. Mais malheureusement, la plupart des acteurs du secteur ont décidé que déclaratif signifiait « configuration en JSON ». Ainsi, au lieu de l'intention (ce mot est important, souvenez-vous-en) derrière le déclaratif, qui est « dites-moi ce que vous voulez faire, et je le ferai pour vous », nous nous sommes retrouvés avec « voici la configuration que je veux, allez faire le travail difficile de la faire ». 

Ce n’est pas tout à fait la même chose, et cela nécessite toujours le même niveau d’expertise avec le modèle opérationnel propre à une solution donnée. Je ne suis pas sûr que l’industrie soit jamais parvenue à un accord sur la question de savoir si les équilibreurs de charge utilisent des « pools » ou des « fermes », sans parler des détails plus complexes de la façon dont les serveurs virtuels interagissent avec les serveurs réels et les instances d’application. Ainsi, tout ce que l’industrie a fait avec le déclaratif a été de décharger le travail de niveau de commande des opérateurs vers le système.

Désormais, l’IA générative apporte une forme de low code/no code. Ceux-ci sont plus fiables que certains résultats car ils sont basés sur des spécifications bien formées qui guident la génération des résultats. Après tout, il n’y a qu’un nombre limité de façons d’écrire « bonjour le monde », alors qu’il existe des millions de façons de répondre à une question.

Ce qui signifie que je devrais pouvoir dire à un modèle entraîné : « Hé, je veux configurer mon équilibreur de charge pour faire évoluer l’application A » et le système devrait pouvoir générer une configuration. Mais plus que ça, je devrais pouvoir lui dire : « Donnez-moi un script pour faire X sur le système Y en utilisant Z » et BAM ! Il doit non seulement générer la configuration, mais également l'automatisation nécessaire pour la déployer sur le bon système. 

Oh regarde. C'est déjà le cas.

Accès BIG-IP

Certes, ce n’est pas un code prêt pour la production (ni l’IP ni les informations d’identification ne sont valides, et il a choisi Python (pas mon premier, deuxième ou troisième choix)), mais il est à 90 % du chemin, basé uniquement sur la documentation disponible publiquement et une invite remarquablement simple. Plus l’invite est détaillée, meilleurs sont les résultats. L’intégralité du script généré ci-dessous est plus longue, j’ai donc inclus juste le début.

Générer des VIP

Encore une fois, ce n’est pas encore prêt à être déployé, mais c’est beaucoup plus proche d’être fonctionnel et cela a pris littéralement moins de quinze secondes à générer sans aucune formation de ma part. 

De la génération à l’automatisation

Mais c'est la chose la plus facile. Je devrais également pouvoir lui dire : « Oh, au fait, déployez-le. » Et la chose devrait le faire pendant que je savoure mon café du matin. Et peut-être que tu pourrais aussi me chanter une petite chanson. 

Mais attendez, il y a plus ! Et si je pouvais également dire plus tard à un système d'IA générative : « Hé, les utilisateurs de Green Bay se connectent beaucoup et les performances sont en baisse, clonez l'application A et déplacez-la vers notre site à Milwaukee. » 

Et c'est le cas. Car sous le capot, tout cela n’est qu’un réseau d’API, de configurations et de commandes qui peuvent et sont souvent automatisées par des scripts aujourd’hui. Ces scripts sont souvent paramétrés, ce qui correspond vaguement à ce que sont les paramètres de mon invite d'IA : Green Bay, Milwaukee, App A. Ce qui change, c'est le générateur et la vitesse à laquelle il peut être généré. 

Je dis souvent que l’IA et l’automatisation sont des multiplicateurs de force. Parce que la technologie ne sait pas ce qu'elle doit faire, nous le savons. Mais l’IA et l’automatisation peuvent le faire beaucoup plus rapidement et efficacement, en amplifiant efficacement la productivité, en augmentant le délai de rentabilisation et en libérant le temps des experts pour se concentrer sur les décisions et les projets stratégiques. Et au fil du temps, l’IA peut apprendre de nous, multipliant encore nos capacités et exposant de nouvelles possibilités. 

Ce n’est plus de la science-fiction mais une réalité informatique. 

L’IA générative permettra de mettre en place l’AIOps dont nous avons besoin

La plupart des solutions AIOps actuelles se concentrent uniquement sur la fourniture des informations qui manquent à 98 % des organisations .

Ils répondent aux problèmes d’hier, pas aux besoins de demain.

Même les plateformes AIOps qui peuvent agir de manière plus autonome, comme les services de sécurité, dépendent fortement de configurations préexistantes et de réponses bien formulées. Il n’utilise généralement pas l’IA pour permettre aux opérations de s’exécuter de manière plus autonome sur les couches hétérogènes de distribution et de sécurité des applications. Ils utilisent l’IA pour analyser les données et découvrir des informations que nous, les humains, n’avons pas la capacité ou le temps de découvrir. Mais c’est souvent là que cela s’arrête, du moins pour les couches situées au-dessus du réseau et les problèmes de sécurité bien compris.

C’est là que l’IA générative peut prendre le relais, et c’est pourquoi je suis tout à fait déterminé à étudier jusqu’où nous pouvons aller avec cette technologie pour rendre la distribution et la sécurité des applications « ridiculement faciles ».

Bienvenue à la pointe de l’iceberg de l’IA.