LIVRE BLANC

Politique dans la charge utile : Se préparer aux architectures des agents IA

Les agents IA transforment la façon dont les applications interagissent avec l’infrastructure. Contrairement aux systèmes traditionnels, chaque agent intègre ses propres objectifs, contexte et logique de décision dans chaque requête — ce qu’il faut faire, comment réagir, et ce que signifie la réussite. Cette évolution remet en cause les idées reçues sur la gestion du trafic et vous pousse à repenser votre infrastructure entreprise. Le routage statique, les ressources partagées et les politiques centralisées ne suffisent plus dans un univers où chaque requête est autonome.

Les architectures d’agents exigent que l’infrastructure passe d’une exécution réactive à une interprétation en temps réel de l’intention intégrée. Vous pouvez préparer votre entreprise à cette évolution en adaptant vos investissements actuels, sans les abandonner.

Introduction

Les agents IA ne sont pas de simples applications intelligentes. Ils marquent un changement profond dans la manière dont les applications fonctionnent, prennent des décisions et s’adaptent. À la différence des systèmes traditionnels, les agents n’appliquent pas seulement des règles de trafic, ils en définissent eux-mêmes. Chaque requête qu’ils envoient contient non seulement des données, mais aussi une logique intégrée : ce qui doit se produire, la gestion des solutions de secours, et les critères de réussite.

Ce changement déplace la prise de décision des plans de contrôle statiques vers l’exécution en temps réel. Il supprime la séparation historique entre plans de contrôle et plans de données, amenant l’infrastructure de trafic—équilibreurs de charge, passerelles, proxys—à interpréter les politiques spécifiques à chaque requête au lieu de simplement exécuter des routes préconfigurées.

Cet article examine comment les architectures d’agents remettent en cause les principes fondamentaux de l’ingénierie du trafic, que ce soit les vérifications d’intégrité, la logique de secours, l’observabilité ou l’application de la sécurité. Il explique pourquoi les concepts traditionnels comme les pools statiques et les métriques d’intégrité basées sur des moyennes ne suffisent plus dans un monde où chaque requête révèle une intention spécifique. Il affirme que l’infrastructure de couche 7 doit évoluer, sous peine de se réduire à une simple plomberie standardisée, fiable mais invisible stratégiquement. Pour vous adapter, vous devez repenser votre pile de trafic : la rendre programmable en temps réel, consciente du contexte, et compatible avec les protocoles natifs des agents tels que Model Context Protocol (MCP). Cela implique de revoir la logique de secours, d’adopter une observabilité sémantique, et de permettre l’application des politiques initiées par les agents. Des outils innovants comme l’étiquetage des données en temps réel jouent un rôle crucial dans cette transition.

En somme, l’avenir de la gestion du trafic ne consiste pas seulement à acheminer les paquets, mais à atteindre une finalité concrète.

Architectures d'agents : Caractéristiques essentielles

Les architectures d'agents introduisent un modèle opérationnel innovant dans lequel des composants autonomes, pilotés par une IA générative—appelés agents—réalisent des tâches ciblées, prennent des décisions en temps réel et gèrent le contexte pour ajuster leur exécution instantanément. Ces agents fonctionnent comme les chaînes de services actuelles, mais sans dépendre de workflows préconfigurés. Ils définissent au moment même le flux d’exécution adapté, en se basant sur les objectifs, l’état de l’environnement et les résultats observés.

Cette évolution marque un passage des systèmes traditionnels, orchestrés de manière centralisée avec des workflows prédéfinis, vers des systèmes décentralisés et dynamiques capables de construire des chemins d'exécution en temps réel. Elle remplace la prévisibilité des chaînes statiques de microservices par une prise de décision fluide et adaptable, pilotée par des données et des intentions en direct.

Les systèmes basés sur des agents se caractérisent par :

  • Exécution orientée vers les objectifs : Vous donnez aux agents des consignes ou des missions, pas des processus figés. Ils choisissent les API, ajustent les paramètres et réorientent leurs actions selon l’atteinte du but fixé.

    Exemple : Un agent chargé de régler une réclamation client peut utiliser les API de facturation, de gestion de compte et de messagerie de manière différente selon les résultats obtenus précédemment.

  • Contexte portable : Les agents conservent leur propre mémoire, état et politique. Avec le protocole Model Context Protocol (MCP) ou des métadonnées structurées, ils intègrent ce contexte à chaque requête.
  • Adaptation en temps réel : Au lieu d'attendre une décision de l'infrastructure, vous pouvez compter sur les agents qui s'ajustent instantanément, en retentant, en reroutant, en escaladant ou en modifiant les chemins d'exécution.
  • Observabilité intégrée : Chaque action se décrit elle-même. Les agents expliquent pourquoi ils ont choisi un chemin, ce qu’ils ont évalué et si un objectif a été atteint. Voici l’observabilité comme comportement, pas seulement les journaux et les indicateurs.

Ensemble, ils font passer le paysage applicatif d’un cadre prévisible à un environnement adaptatif et en constante évolution.

Impact sur la gestion traditionnelle du trafic

Les systèmes de gestion du trafic actuels reposent sur des limites bien définies :

  • Le plan de contrôle fixe l’intention : quels points d’extrémité sont valides, quels chemins privilégier, quelles politiques mettre en œuvre.
  • Le plan de données prend les décisions : il achemine les requêtes, applique la sécurité et équilibre la charge.

Ce modèle a fait ses preuves pendant des décennies, notamment dans les architectures orientées services et les environnements microservices. Il part du principe que les flux de trafic se modélisent à l’avance et que les charges de travail suivent des schémas prévisibles.

Exemples :

  • Un répartiteur de charge dirige /api/login vers un groupe et /api/images vers un autre.
  • Les contrôles de santé déterminent si les nœuds sont disponibles ou hors service.
  • Les seuils statiques définissent quand basculer.

Nous comptons sur ces systèmes pour :

  • Couplage étroit entre la politique et la configuration aux ressources statiques, comme des pools et des membres spécifiques
  • Structures statiques telles que les pools et les membres
  • Routage déterministe selon le chemin, l'en-tête ou le protocole
  • Nous centralisons l’orchestration pour découvrir les services, vérifier leur état et gérer les plans de secours

Les systèmes basés sur des agents apportent fluidité, autonomie et logique autonome, remettant en cause ces hypothèses.

Dans les architectures à agents, la séparation traditionnelle entre le plan de contrôle et le plan de données commence à disparaître. Les agents ne se contentent pas d'exécuter les requêtes ; ils intègrent la logique qui définit la nature de la requête, les conditions déclenchant les solutions de repli, la façon de mesurer le succès, et même la route à privilégier. Ces aspects relèvent habituellement du plan de contrôle, mais les agents les encodent dans des en-têtes, des jetons ou des métadonnées qui accompagnent la requête elle-même dans le plan de données.

Cette convergence signifie que le plan de données ne peut plus se contenter d’exécuter passivement des décisions centralisées. Vous devez interpréter activement la politique en temps réel. La requête ne se limite plus à un paquet ; c’est un élément porteur de politique. Ainsi, équilibreurs de charge, passerelles et couches de routage doivent évoluer, passant de composants réactifs à des interprètes en temps réel des intentions portées par les agents.

Cette évolution remet en question l’hypothèse fondamentale que le plan de contrôle reste statique et centralisé. Désormais, la logique décisionnelle se distribue, se rend portable et s’adapte à chaque requête, s’exécutant en temps réel. Il ne s’agit pas seulement d’un changement de déploiement, mais d’un mouvement concernant où et comment vous prenez vos décisions.

Nous achevons ainsi ce que Kubernetes a entamé en masquant l'infrastructure sous-jacente — réseau, stockage, voire le routage du trafic L4 — pour en faire une "plomberie" pilotée par une interface déclarative. Nous n'avons pas supprimé ces couches, mais les avons reléguées. Elles deviennent invisibles, automatisées et subordonnées à un nouveau système guidé par l’intention.

Les architectures d'agents couvrent l'ensemble de la pile, pas seulement l'infrastructure.

Perturbations majeures dans la gestion du trafic

Pour concrétiser ces perturbations, prenons l’exemple d’un scénario local de livraison d’application :

Exemple : Un site de commerce électronique régional utilise un ADC pour gérer le trafic API interne. Nous assignons un agent IA pour optimiser la rapidité de traitement des commandes. Il détecte qu’un point d’accès API spécifique, par exemple /api/inventory/check, subit une baisse de performances due à une complexité accrue des requêtes et à une contention sur la base de données en arrière-plan. Les algorithmes traditionnels d’équilibrage de charge, y compris celui de la « réponse la plus rapide », ne captent pas la subtilité de ce ralentissement car ils évaluent les performances comme une moyenne générale sur toutes les réponses d’un membre du pool, sans tenir compte des tâches ou des appels individuels.

Pour respecter son SLA, l'agent redirige vos demandes de vérification d’inventaire vers un groupe de nœuds alternatif optimisé pour les requêtes transactionnelles. Il étiquette chaque demande avec un en-tête contextuel, comme X-Task-Profile: inventory-sensitive. L’équilibreur de charge, une fois correctement configuré, interprète cela et oriente le trafic en conséquence. Mais puisque ces nœuds n’ont pas été attribués à l’avance dans le pool statique lié à /api/inventory, les services de gestion du trafic doivent reconnaître les directives portées par l’agent et résoudre dynamiquement le routage, sans dépendre des structures statiques.

Maîtrisez la convergence du plan de donnéesCe scénario illustre les limites des structures statiques comme les pools et démontre votre besoin d’une gestion du trafic dynamique, programmeable et adaptée au contexte.

Les systèmes à base d’agents remettent en cause plusieurs principes fondamentaux de l’ingénierie du trafic :

Convergence des plans de contrôle et de données : Les décisions de routage, autrefois basées sur des règles statiques, se fondent désormais sur la requête elle-même. Nous abolissons ainsi la logique d’application traditionnelle.

Routage basé sur l’intention : Les agents dirigent le trafic selon des objectifs, pas uniquement par point de terminaison. Un seul point de terminaison comme /api/process peut prendre en charge des centaines de workflows selon les directives des agents.

Les pools statiques deviennent obsolètes : Les pools traditionnels reposent sur des rôles fixes. Vous pouvez avoir besoin d’un accès GPU à un instant, puis d’une optimisation CPU au suivant, ce qui rend l’appartenance au pool trop rigide.

Les replis et les basculements deviennent essentiels : Le basculement signifiait autrefois « essayer le serveur suivant ». Aujourd’hui, les agents analysent en temps réel les performances et les résultats historiques pour décider stratégiquement de la meilleure option.

Les modèles de trafic se dessinent, ils ne se répètent pas : Vous configurez des workflows à la demande grâce aux agents. Impossible de prédéfinir tous les parcours, ils s’adaptent aux besoins.

Ces perturbations poussent les équilibreurs de charge, les passerelles et les piles d'observabilité à réagir en temps réel à une logique de trafic fluide.

Repenser les mesures de santé et de performance

Les indicateurs de santé et de performance sont depuis toujours essentiels à la gestion du trafic. Pour équilibrer la charge, vous devez savoir si un serveur est disponible, quel est son temps de réponse et quelle est sa charge. Dans les systèmes pilotés par agents, la santé ne se limite pas à un état binaire, et on ne peut pas généraliser la performance sur de larges catégories. Les indicateurs doivent montrer si une cible convient à une tâche spécifique, pas seulement si elle est active.

Pourquoi c’est essentiel : Les indicateurs de santé influencent directement le routage des requêtes, les décisions de basculement et l’optimisation des performances. Dans un environnement agent-natif, chaque requête exprime une intention différente et peut nécessiter un chemin ou une garantie de réponse spécifique. Les méthodes classiques échouent à satisfaire cette exigence car :

  • Ils utilisent des agrégations simplistes (par exemple, le temps de réponse moyen) qui dissimulent la variance propre à chaque tâche.
  • Ils évaluent la santé uniquement du point de vue du serveur, sans aucune visibilité sur la réussite ou la satisfaction au niveau de l’agent.
  • Ils partent du principe d’une homogénéité du trafic, ce qui ne s’applique pas lorsque le routage des requêtes dépend des décisions prises à l’exécution.

Exemple : Un groupe de serveurs API peut tous être jugés « sains » selon les contrôles de santé, mais l’un d’eux ne parvient jamais à fournir des réponses en moins de 100 ms pour les requêtes X-Task-Profile : sensible à l’inventaire. Si vous attendez ce profil de latence, vous percevrez une défaillance, même si l’infrastructure la considère normale.

Ce dont vous avez besoin :

  • Télémétrie instantanée par requête, reflétant vos intentions et les résultats obtenus.
  • Un score de santé adapté à chaque tâche qui identifie quand un nœud est dégradé pour certaines fonctions, même s’il reste en bon état pour d’autres.
  • Des boucles de rétroaction qui intègrent les succès ou les échecs rapportés par l'agent dans la logique de routage et de priorisation.

Les outils d’étiquetage des données jouent un rôle clé en identifiant le trafic en temps réel tout en capturant sa performance et son contexte. Ils permettent aux systèmes de comprendre non seulement ce qui s’est produit, mais aussi si cela a répondu à l’objectif de l’acteur à l’origine.

Fonctions de secours, disjoncteurs et capacités de nouvelle tentative dans les architectures d'agents

Dans une infrastructure traditionnelle, nous implémentons les comportements de repli, comme les nouvelles tentatives, la redirection vers des nœuds de secours ou le déclenchement de disjoncteurs, au niveau de l’infrastructure. Les équilibreurs de charge, proxies et passerelles s’appuient sur des seuils prédéfinis (comme les délais d’attente et les taux d’erreur) pour décider quand cesser le routage vers une cible et basculer vers une autre.

Les architectures d'agents renversent cette logique.

Les agents intègrent leurs propres stratégies de secours. Ils incluent dans la requête des règles de nouvelle tentative, une logique d'escalade et des priorités axées sur les objectifs. Ces éléments ajoutent de la complexité et peuvent entrer en conflit avec les mécanismes de basculement de l'infrastructure.

Pourquoi c’est essentiel :

  • L'infrastructure peut considérer une défaillance comme récupérable, alors que l'agent l'estime inacceptable (ou inversement).
  • L'agent et l'infrastructure peuvent activer simultanément la solution de secours, causant ainsi des tentatives redondantes, une latence accrue ou des boucles de trafic.
  • Les disjoncteurs conçus pour un trafic moyen peuvent empêcher un agent d'accéder à des services qu'il juge toujours optimaux.

Risques majeurs :

  • Double basculement : L’agent et l’infrastructure tentent à nouveau simultanément, ce qui génère une charge inutile.
  • Conditions de concurrence : L'agent privilégie une option plus coûteuse ou moins sécurisée alors que le système aurait réglé le problème en quelques millisecondes.
  • Interruption du basculement déterministe : Les règles statiques ne tiennent pas compte des subtilités des agents.
  • Corruption : Les métadonnées de l'agent sont corrompues, absentes ou illisibles.

Guide d’adaptation :

  • L'infrastructure doit évoluer pour intégrer les priorités de secours définies par l'agent (par exemple, via X-Fallback-Order, X-Timeout-Preference).
  • Vous devez rendre les disjoncteurs sensibles à l'intention pour gérer la logique par tâche ou par agent au lieu de s'appuyer sur des seuils globaux.
  • Pensez à intégrer une logique de basculement consciente de la négociation, où vous laissez les agents proposer leurs stratégies préférées et confier aux passerelles l’arbitrage en fonction de la santé, de la charge et des politiques du système.
  • Les systèmes de trafic doivent appliquer une logique d’exécution par défaut si les métadonnées de l’agent manquent, sont incomplètes ou échouent à la validation du schéma, pour garantir une dégradation maîtrisée.
  • Vous devez détecter et prévenir les délégations récursives ou les tentatives conflictuelles d'agents qui peuvent provoquer des boucles ou amplifier le trafic lors de défaillances du système.

Exemple : Un agent chargé d’une vérification de fraude en temps réel vous demande une réponse sous 50 ms. Sa logique de secours privilégie un résultat partiel en cache plutôt qu’une requête complète lente. Une infrastructure qui n’en tient pas compte peut toujours acheminer la requête vers le service complet, générant un délai visible par l’utilisateur. Un modèle plus collaboratif respecterait la priorité de secours de l’agent et fournirait la réponse dégradée la plus rapide.

Au fur et à mesure que vous montez dans la hiérarchie décisionnelle, adaptez aussi vos stratégies de secours. Vous ne pouvez pas laisser les disjoncteurs et la logique de réessai figés ou opaques ; ils doivent suivre les préférences des agents tout en garantissant la sécurité et l’équité du système.

La haute disponibilité et le basculement restent essentiels

Alors que les architectures d'agents transfèrent la prise de décision et la coordination à la couche des requêtes, vous devez maintenir la fiabilité du système central via l'infrastructure sous-jacente. Vous devez donc assurer la haute disponibilité (HA) et les mécanismes de basculement au niveau de l'infrastructure. Ces mécanismes deviennent d'autant plus essentiels à mesure que les systèmes adoptent un comportement plus dynamique et autonome.

Les agents orientent le trafic selon les objectifs et le contexte, mais vous comptez toujours sur le réseau pour maintenir l’accessibilité et la résilience des services en cas de problème. Les équilibreurs de charge détectent immédiatement les nœuds inaccessibles, les services en échec ou les environnements dégradés, et réorientent le trafic en temps réel, quelle que soit la stratégie de secours choisie par l’agent.

Responsabilités clés qui restent inchangées :

  • Surveillez les membres du pool et la santé du service backend
  • Identifiez les coupures réseau ou les erreurs de routage
  • Redirigez le trafic selon la disponibilité, l’état de fonctionnement ou la dégradation du système
  • Assurez la haute disponibilité pour les services ou sessions avec état lorsque vous en avez besoin

Les agents peuvent définir « ce qui doit suivre », mais c’est l’équilibreur de charge qui contrôle « la rapidité de reprise lorsqu’un nœud tombe en panne ».

Vous devez garantir que la logique de routage adaptative et consciente des agents n’affecte pas la stabilité opérationnelle. Une infrastructure bien équipée doit préserver :

  • Nous assurons un basculement immédiat et un rééquilibrage du trafic dès qu'un nœud devient indisponible
  • Topologies HA résilientes qui protègent vos agents et services des interruptions en amont
  • Récupération rapide et automatisée qui vient en complément de la logique de secours de l'agent sans la perturber

En résumé, les architectures pilotées par agents ne suppriment pas le besoin de basculement : elles intensifient les enjeux. Vous devez faire en sorte que l'infrastructure réagisse plus rapidement, avec une meilleure prise en compte du contexte, sans bloquer le comportement autonome.

Conséquences pour la gestion du trafic en entreprise

Le passage à des architectures basées sur des agents marque une transformation essentielle dans le fonctionnement des systèmes de trafic comme les équilibreurs de charge et les passerelles. Alors que les systèmes traditionnels prenaient des décisions selon une politique préconfigurée, souvent indépendante de la requête, les systèmes pilotés par agents intègrent directement cette politique à la requête. C’est le principe fondamental du protocole Model Context Protocol (MCP) : appliquer la politique intégrée à chaque requête.

Nous appellerons ce modèle « politique dans la charge utile ». Plutôt que de laisser des systèmes centralisés analyser chaque cas limite, l'agent encode les décisions politiques pertinentes (telles que la stratégie de secours, la préférence de nœud, la tolérance aux erreurs ou les exigences de confidentialité) dans chaque demande. L’infrastructure doit ensuite lire, interpréter et agir sur ces instructions politiques en temps réel .

Ce nouveau modèle d'exécution redéfinit le rôle des composants de gestion du trafic :

  • Des décideurs aux exécutants : L’infrastructure ne choisit plus où le trafic se dirige ; elle applique la décision prise par l’agent.

    Exemple : Un répartiteur de charge qui lit X-Route-Preference: gpu-optimized doit diriger le trafic en conséquence, même si ce nœud n’était pas dans le pool initial.

  • Programmable à l'exécution : iRules et politiques évaluent les en-têtes comme X-Intent, X-Context ou X-Goal. Cela transfère la logique des chemins préconfigurés vers une interprétation dynamique et en temps réel.
  • Routage basé sur le contexte : Les ADC et services comparables dirigent le trafic selon l’identité, l’intention et le contexte, pas seulement l’hôte ou le chemin.
  • Observabilité sémantique : Les journaux doivent indiquer non seulement ce qui s’est passé, mais aussi pourquoi : « Agent redirigé en raison du dépassement du seuil de latence » est plus clair que simplement « routé vers le Pool B ».

Les technologies d’étiquetage des données et outils similaires vous aident à taguer et classifier le contexte des requêtes en temps réel, rendant le routage sémantique et l’observabilité accessibles.

Charge utile dans le graphique des politiques

Préparer l'infrastructure d’entreprise aux architectures à agents

Les agents d’IA ne fonctionneront pas isolément. Ils coopéreront avec vos systèmes existants, utiliseront les API traditionnelles, modifieront la logique métier dans vos bases de données d’entreprise et invoqueront les fonctions hébergées sur vos backends monolithiques comme sur vos microservices. Pour votre entreprise, cela signifie que vous ne pouvez pas repartir de zéro ; vous devez évoluer.

La réalité : Les agents communiquent avec tout

Les environnements d'entreprise combinent :

  • Les API SOAP utilisées depuis des décennies restent clés dans la finance
  • Services RESTful au service des applications web
  • Queues de messages pour systèmes d'inventaire asynchrones
  • Microservices natifs du cloud
  • API SaaS avec plafonds de trafic et authentification complexe
  • Modèles de langage large et agents spécialisés

Les agents doivent s’adapter pour travailler sur l’ensemble. Votre infrastructure doit pouvoir gérer cette interaction en temps réel, en appliquant des politiques adaptées au contexte.

Ce dont les équipes d’entreprise doivent se préparer

1. Faites accéder vos systèmes internes par des interfaces adaptées à l’intention

Les agents ne veulent pas cinq points de terminaison, ils veulent une seule cible. Mettez à disposition la fonctionnalité métier (par exemple, « obtenir le statut d'une commande ») via des couches d'abstraction ou des compositions API que vous pouvez atteindre grâce à un point d’entrée sémantique unique.

Étape de préparation : Servez-vous des passerelles API ou des maillages de services pour rassembler les points d'accès orientés tâches avec des contrats d’entrée/sortie clairs.

2. Un outil pour le contexte, pas uniquement les chiffres

La journalisation traditionnelle se concentre sur la méthode, le chemin d’accès et le temps de réponse. Mais les agents s’intéressent à :

  • La nature de la tâche
  • Quelle solution de secours avez-vous tenté
  • Objectif atteint

Étape préparatoire : Utilisez des outils d’observabilité sémantique qui marquent le trafic avec des libellés comme X-Intent, X-Task-Type et X-Agent-Outcome.

3. Prise en charge de l’évaluation en temps réel des politiques intégrées

Les agents intègrent des instructions de secours, des préférences de délai et des exigences de sécurité dans la requête. L’infrastructure existante passe outre ces données.

Étape préparatoire : Étendez les règles de trafic pour analyser et agir sur les métadonnées des agents (par exemple, X-Route-Preference, X-Fallback-Order, X-Data-Class). Commencez avec iRules ou un script d’exécution similaire.

4. Réinventez le contrôle d’accès et la gouvernance

Les agents fonctionnent de manière autonome. Voici ce que vous devez savoir :

  • Quel agent agit pour le compte de qui
  • Quels outils peut-il utiliser
  • Quelles plages de données sont autorisées à être atteintes

Étape préparatoire : Intégrez un contrôle d'accès basé sur l'identité et des politiques basées sur les attributs (ABAC), plutôt que de vous limiter à une liste blanche d’IP ou à un RBAC statique.

5. Séparez la gestion des secours et des tentatives

L'infrastructure et les agents ne doivent pas rivaliser pour assurer la récupération. Confiez à l'un la gestion des objectifs en temps réel, et à l'autre l'application des protections systémiques.

Étape préparatoire : Distinguez clairement la portée de secours des agents (ce qu’ils contrôlent) du basculement de l’infrastructure (ce que vous gérez). Établissez les règles de négociation et les conditions d’override.

Conclusion

À mesure que l’IA évolue des modèles isolés vers des agents autonomes, vous faites face à un tournant stratégique crucial. Ces agents ne fonctionneront pas dans un environnement vierge : ils s’intègreront aux applications existantes, feront appel aux API anciennes et piloteront des décisions au sein des systèmes d’entreprise essentiels. Vous devez donc vous préparer dès aujourd’hui pour les soutenir, non seulement avec de nouveaux outils, mais en repensant la manière dont votre architecture prend en charge l’intention, l’exécution et la gouvernance.

Ce n’est pas le moment de tout remplacer. C’est un moment de convergence où les systèmes traditionnels et les comportements des agents émergents doivent fonctionner ensemble avec précision et objectif.

Les architectures d'agents vont s'imposer. Si vous vous y préparez dès maintenant, vous ne vous contenterez pas de suivre, vous prendrez la tête.

Miniature de Lori MacVittie
Lori MacVittie
Publié le 1er juillet 2025

Connectez-vous avec F5

F5 Labs

Les dernières nouveautés en matière de renseignement sur les menaces applicatives.

DevCentral

La communauté F5 pour les forums de discussion et les articles d'experts.

Salle de presse F5

Actualités, blogs F5 et plus encore.