L’automatisation du déploiement et de la gestion de la configuration des dispositifs de distribution d’applications et de sécurité est devenue une pratique quasi obligatoire. Dans le rapport IDG FutureScape 2017, l'automatisation et la gestion multicloud figurent parmi les principales initiatives qui auront un impact sur les entreprises d'ici 2021.1 L'automatisation apporte évolutivité, fiabilité et intégration au déploiement des services essentiels de sécurité, d'optimisation et de disponibilité dont les applications ont besoin, et intègre leur livraison dans les flux de travail orchestrés de création, de test et de déploiement qui émergent comme le modèle dominant de déploiement d'applications.
Même une automatisation simple de tâches de base telles que l'ajout de nouveaux serveurs virtuels ou de membres de pool peut permettre aux opérations de fournir une capacité de libre-service aux propriétaires d'applications ou à d'autres systèmes automatisés, et de libérer du temps pour un travail plus productif, comme la création de la prochaine vague d'outils d'automatisation.
Le besoin d’automatisation prend encore plus d’importance lorsqu’une organisation commence à adopter plusieurs plates-formes cloud pour fournir des services informatiques. Lorsque vous essayez de déployer des services dans plusieurs emplacements avec des caractéristiques de plate-forme différentes, l'automatisation peut aider à réduire l'impact de l'augmentation des frais opérationnels et à diminuer les erreurs dues à la méconnaissance des nouvelles plates-formes.
Mais comment et quoi automatiser ? Avec différents modèles d'opérations, interfaces et langages, les logiciels d'automatisation peuvent fonctionner sur une seule couche d'appareil ou comme des outils multi-systèmes plus complexes. Les plateformes cloud Infrastructure-as-a-Service (IaaS) offrent leurs propres outils natifs pour déployer des infrastructures et des services virtuels. De plus, F5 offre une gamme d’interfaces et d’options d’orchestration. Bien que cette gamme d’outils et d’options vous donne la possibilité d’automatiser de la manière la mieux adaptée à votre organisation, choisir le bon outil peut être une tâche ardue, et le risque de complexité et de prolifération des outils est réel.
Dans cet article, nous vous présenterons les différentes manières d’automatiser le déploiement, la gestion et la configuration des appareils F5 BIG-IP (physiques et virtuels), ainsi que quelques conseils sur la manière de choisir le chemin le plus adapté à votre entreprise.
Il existe un certain nombre de points d’automatisation clés dans le cycle de vie de la fourniture de services d’application. En fonction de votre modèle d’infrastructure et de vos méthodes de déploiement d’applications, vous devrez peut-être développer toutes ces applications ou seulement quelques-unes d’entre elles.
Si vous déployez des services sur une BIG-IP physique ou virtuelle multi-locataire de grande capacité, les activités d’amorçage et d’intégration ne seront pas une priorité élevée, par rapport au déploiement, à la surveillance et à la mise à jour des configurations des services d’application pour les centaines ou les milliers d’applications qu’elles prennent en charge.
Si vous envisagez un modèle de déploiement dans lequel chaque application dispose d'instances BIG-IP dédiées dans plusieurs environnements (y compris des instances potentiellement éphémères créées à la demande pour les tests et l'assurance qualité), alors l'automatisation des processus d'amorçage et d'intégration fait autant partie du chemin critique que le déploiement des services d'application eux-mêmes.
Quel que soit votre environnement et le nombre de processus que vous devez automatiser, il y a certains sujets clés que vous devez prendre en compte.
L'automatisation couvre une gamme d'activités. À une extrémité du spectre se trouve le développement de scripts simples écrits en Bash, TMSH, Python ou d’autres langages qui peuvent être exécutés localement pour accélérer les activités de configuration manuelle. À l’autre extrémité du spectre se trouve un système complet « d’infrastructure en tant que code » qui combine la gestion du code source, les orchestrateurs de flux de travail et (potentiellement) plusieurs outils d’automatisation pour créer un système dans lequel la configuration de l’infrastructure est définie et modifiée avec des fichiers texte contenus dans un référentiel. Entre ces deux extrêmes se trouvent un certain nombre d’options différentes pour vous aider à gérer le déploiement et la configuration d’une plateforme BIG-IP.
La plupart des déploiements BIG-IP actuels peuvent être considérés comme mutables , ce qui signifie que nous pouvons nous attendre à ce que leur configuration change au fil du temps. Cela est dû au fait que la plateforme BIG-IP est principalement déployée en tant que périphérique multi-locataire qui fournit des services à plusieurs applications. À mesure que de nouvelles applications sont déployées (ou que les applications existantes évoluent ou nécessitent des services supplémentaires), la configuration du BIG-IP sera mise à jour pour correspondre. Cette méthode de déploiement permet aux équipes d’infrastructure de gérer un ensemble d’infrastructures centralisées, qui fournissent des services aux applications à partir d’une plate-forme commune.
Cependant, les plates-formes BIG-IP sont parfois déployées dans le cadre d'une pile d'applications discrète, où les services d'un BIG-IP particulier sont liés à une application ou à un service spécifique. Dans cette situation, nous pourrions traiter la configuration BIG-IP comme immuable ; c'est-à-dire que la configuration est installée au démarrage, ou dans le cadre de l'image logicielle, et n'est pas modifiée pendant le cycle de vie de l'instance BIG-IP. Les modifications de configuration sont effectuées en modifiant l'image logicielle ou le contenu du script de l'agent de démarrage, puis en effectuant un redéploiement. Ce modèle est souvent appelé « nuke and pave ». Bien que moins courants dans l'ensemble, la disponibilité de nouveaux modèles de licences BIG-IP pour prendre en charge les instances par application, des outils de licences améliorés et des outils tels que les bibliothèques cloud F5 (un ensemble de scripts et de bibliothèques Node.js conçus pour vous aider à intégrer un BIG-IP dans un cloud) font de ce modèle de déploiement une option viable pour les organisations qui ont besoin qu'une application dispose d'une pile de code et d'infrastructure étroitement liée et isolée.
Il existe deux modèles conceptuels expliquant comment les interfaces d’automatisation sont exposées aux consommateurs. Les schémas d’automatisation de « première vague » les plus courants tendent vers un modèle impératif. Dans les modèles d’automatisation impératifs, le consommateur d’automatisation doit généralement savoir à la fois ce qu’il souhaite réaliser et les étapes explicites (généralement par des appels d’API) pour y parvenir. Cela place souvent sur le consommateur la charge de comprendre les détails de configuration des services avancés, ainsi que la complexité et les efforts supplémentaires nécessaires pour intégrer les services aux outils d’automatisation. C’est un peu comme demander un sandwich en spécifiant chaque opération nécessaire à sa préparation, plutôt que de simplement demander un sandwich en espérant que le préparateur de sandwich connaîtra les opérations (et l’ordre des opérations) nécessaires pour en faire un.
En revanche, une interface déclarative permet aux consommateurs (humains ou machines) de créer des services en demandant ce qu’ils veulent. Une connaissance détaillée de toutes les étapes requises n'est pas nécessaire car la cible d'automatisation dispose des flux de travail préconfigurés ou des modèles de service pour créer la configuration en fonction des résultats requis. Bien qu'une interface déclarative implique une configuration initiale légèrement plus complexe, cette complexité est compensée par la simplicité de fonctionnement une fois que les modèles de service appropriés sont créés. Cela en fait, en général, le mécanisme privilégié pour construire des systèmes d’automatisation.
Une autre décision que vous devrez prendre en compte est de savoir si les appels d’API d’automatisation doivent être effectués à partir d’outils tiers directement vers l’appareil qui doit être modifié ou via un outil de gestion supplémentaire. Les outils de gestion peuvent abstraire et simplifier les opérations et peuvent offrir des couches supplémentaires de contrôle et de journalisation par rapport à une connexion directe à l'entité gérée. Cependant, vous devrez vous assurer que vos couches de gestion sont hautement disponibles dans les situations où la capacité d’apporter des modifications rapidement est essentielle.
Les appareils BIG-IP sont le plus souvent automatisés via l'API REST, qui expose la majorité des fonctionnalités BIG-IP via un schéma documenté . Les modules fournis par F5 pour les outils d'automatisation tels qu'Ansible utilisent largement l'API REST. L'ajout de la fonctionnalité iControl LX permet également la création d'un point de terminaison d'API défini par l'utilisateur qui peut effectuer une opération en plusieurs étapes à partir d'un seul appel d'API.
Une autre façon courante d’automatiser la configuration BIG-IP consiste à utiliser des agents de démarrage, qui s’exécutent au démarrage et peuvent récupérer des informations externes pour configurer la plate-forme BIG-IP. Les agents de démarrage sont souvent utilisés pour effectuer la configuration initiale des appareils « intégrés » et peuvent récupérer des scripts et des fichiers de configuration supplémentaires à partir de sites tiers tels que GitHub ou votre propre référentiel. Les agents de démarrage peuvent également être utilisés pour configurer complètement une plate-forme BIG-IP, en particulier si vous avez choisi une configuration fixe par application.
La configuration de démarrage la plus courante est cloud-init , qui est activée dans toutes les images BIG-IP VE (sauf dans Microsoft Azure), mais elle est plus adaptée à une utilisation dans les déploiements AWS et OpenStack. Parallèlement à cloud-init, F5 fournit une série de bibliothèques de démarrage cloud pour aider à configurer BIG-IP au démarrage.
Si vous choisissez d’utiliser des agents de démarrage pour configurer une plateforme après le démarrage, faites très attention à la gestion des échecs. Ceci est particulièrement important si des sources externes sont utilisées, en particulier lorsqu'une instance peut être lancée dans le cadre d'un événement de mise à l'échelle. Si les ressources externes ne sont pas disponibles, comment le système se comportera-t-il ? Des appareils « zombies » supplémentaires seront-ils créés pour tenter de répondre à la demande ?
Dans certains cas, les systèmes d’automatisation peuvent se comporter comme des utilisateurs et exécuter des commandes CLI. Bien que cela puisse parfois résoudre certains problèmes où les appels d'API peuvent ne pas être complets, en général, la difficulté du support et la fragilité de la solution en font la méthode de dernier recours.
Les modèles et les playbooks peuvent créer des déploiements automatisés et créer des infrastructures présentant un certain degré de standardisation. Le niveau de standardisation approprié rend votre infrastructure plus robuste et plus facile à prendre en charge. Les modèles bien créés offrent une interface déclarative, où l'entité demandeuse (utilisateur ou machine) n'a besoin de connaître que les propriétés dont elle a besoin, et non les détails d'implémentation. Un déploiement strict via des modèles et une correction uniquement en corrigeant les modèles peuvent conduire à un service de meilleure qualité, car les problèmes ne doivent généralement être résolus qu'une seule fois. Les services sont redéployés à partir du nouveau modèle et les mises à jour apportées au modèle empêchent le même problème de se reproduire une deuxième fois.
Les outils d'intégration de plateformes lient la configuration des services BIG-IP à des plateformes telles que le cloud privé ou les systèmes de gestion de conteneurs. Les mécanismes varient selon les plateformes et les implémentations, mais se répartissent généralement en trois modèles :
Bien qu'il ne s'agisse pas d'une solution d'automatisation complète, la découverte de services est un moyen simple et puissant d'intégrer les configurations BIG-IP aux changements de l'environnement. La découverte de services fonctionne en interrogeant périodiquement le système cloud via l'API pour récupérer une liste de ressources et en modifiant la configuration BIG-IP en conséquence. Cela est particulièrement utile dans les environnements où les ressources sont configurées dans des groupes de mise à l'échelle automatique, car la mise à l'échelle de la ressource de calcul back-end nécessite que l'équilibreur de charge soit conscient des nouvelles ressources. Les composants de découverte de services sont fournis avec les solutions de mise à l’échelle automatique cloud F5 pour AWS et Azure .
Alors, existe-t-il un schéma d’automatisation recommandé pour F5 ? Oui et non. Il y a tellement de variables à prendre en compte que des conseils totalement prescriptifs ne sont d'aucune utilité. Nous avons cependant rassemblé les éléments clés dont nous pensons que vous aurez besoin dans une famille de produits coordonnée.
La famille de produits F5 Automation Toolchain comprend les blocs de construction d'automatisation et d'orchestration fondamentaux qui vous permettent d'intégrer les plates-formes F5 BIG-IP dans des modèles d'automatisation courants tels que les chaînes d'outils CI/CD.
La chaîne d'outils d'automatisation F5 contient les composants clés suivants
La famille Automation Toolchain est conçue pour gérer le cycle de vie de livraison des services d'application, depuis le déploiement de la plateforme (via des modèles cloud) jusqu'à l'intégration, la configuration des services et la télémétrie et la journalisation avancées pour l'assurance des performances des applications en cours de vie.
Cette famille croissante d’outils pris en charge représente l’orientation future de l’automatisation des services d’application F5. Mais cela ne signifie pas que d’autres intégrations n’existent pas ou ne sont pas prises en charge. Consultez la section « Autres outils d’automatisation » de ce document.
L'extension F5 Applications Services 3 (AS3) fournit un moyen simple et cohérent d'automatiser le déploiement des services d'application de couche 4 à 7 sur la plate-forme BIG-IP via une API REST déclarative. AS3 utilise un modèle d'objet bien défini représenté sous la forme d'un document JSON. L'interface déclarative rend la gestion des déploiements de services d'application F5 simple et fiable.
Diagramme: L'architecture AS3
L'extension AS3 ingère et analyse les déclarations et effectue les appels d'API iControl appropriés pour créer l'état final souhaité sur le BIG-IP cible. L'extension peut s'exécuter soit sur l'instance BIG-IP, soit via le conteneur AS3, un conteneur/VM distinct qui exécute l'extension AS3, puis effectue des appels d'API externes vers le BIG-IP.
Les appels AS3 peuvent également être effectués via BIG-IQ , qui fournit des licences, une gestion, une visualisation et un contrôle d'accès pour les plates-formes BIG-IP, et alimente F5 Cloud Edition , qui apporte des instances à la demande, par application, de BIG-IP combinées à de puissantes analyses.
L' extension Declarative Onboarding fournit une interface simple pour faire passer une plate-forme F5 BIG-IP juste après le démarrage initial à la préparation au déploiement de la sécurité et de la gestion du trafic pour les applications. Cela inclut les paramètres système tels que les licences et l'approvisionnement, les paramètres réseau tels que les VLAN et les adresses IP autonomes, ainsi que les paramètres de clustering si vous utilisez plusieurs systèmes BIG-IP.
Une fois le processus d'intégration terminé, les services d'application peuvent être déployés à l'aide du processus d'automatisation (ou manuel) que vous sélectionnez.
L'intégration déclarative utilise un schéma JSON cohérent avec le schéma AS3 et possède une architecture similaire. L'intégration déclarative est fournie sous la forme d'un RPM indépendant du TMOS qui est installé sur une BIG-IP nouvellement démarrée lors de la première étape de la phase d'intégration.
Le BIG-IP est un puissant générateur de télémétrie d'application, de sécurité et de réseau. L'extension Telemetry Streaming fournit une interface déclarative pour configurer la diffusion de statistiques et d'événements vers des consommateurs tiers tels que :
Comme avec les autres membres de la famille Automation Toolchain, la configuration est gérée via une interface déclarative utilisant un schéma JSON simple et cohérent.
La passerelle de services API est une image de conteneur Docker qui permet aux extensions iControl LX personnalisées de s'exécuter sur une plate-forme indépendante de TMOS. Cela peut vous aider à faire évoluer et à gérer vos déploiements F5 en extrayant les opérations de gestion des plates-formes BIG-IP individuelles.
Les modèles de cloud utilisent les fonctions d'automatisation de déploiement des clouds publics et privés pour provisionner et démarrer les appareils virtuels BIG-IP.
F5 prend actuellement en charge les modèles pour les clouds suivants :
F5 développe activement les modèles cloud pour couvrir une plus large gamme de scénarios de déploiement. Veuillez soumettre vos problèmes ou vos demandes d'extraction via le référentiel GitHub correspondant.
Les services d’application ne sont qu’une couche de la pile technologique qui crée une application fonctionnelle. L'intégration, la création et le déploiement de tous les composants nécessaires pour faire passer une application de la validation du code au déploiement et à la surveillance opérationnels impliquent un grand nombre d'étapes dépendantes, qui doivent être exécutées dans le bon ordre. L'automatisation de cette tâche est le travail des outils d'orchestration qui créent des pipelines de workflow de tâches et d'outils coordonnés.
La plupart des pipelines commencent par un référentiel de code source qui contient le code de l'application, les tests et la configuration de l'infrastructure.
Avec des outils tels que AS3, les modèles cloud et l’intégration déclarative, vous pouvez stocker toutes les informations de configuration nécessaires pour créer et configurer des services d’application dans le cadre d’un pipeline de déploiement.
Dans les architectures utilisant des plates-formes matérielles ou logicielles BIG-IP multi-locataires à longue durée de vie, vous n'aurez besoin que de la configuration AS3 gérée dans le cadre du référentiel de code d'une application. En revanche, dans les scénarios où vous souhaitez démarrer des instances dédiées à la demande dans le cadre du processus de déploiement, la gestion des modèles et des déclarations d'intégration déclarative doit faire partie de votre référentiel d'applications.
Bien que nous ne puissions pas couvrir tous les outils d’automatisation ou d’orchestration imaginables, vous trouverez ci-dessous une liste des outils, des cas d’utilisation et des fonctionnalités les plus courants utilisés par les clients F5.
Intégrations linguistiques
Langue |
Statut |
Exemples et sources |
Python | F5 a contribué | https://github.com/F5Networks/f5-common-python |
Aller | Contribution des utilisateurs |
https://github.com/f5devcentral/go-bigip |
PowerShell |
F5 pris en charge |
https://devcentral.f5.com/wiki/icontrol.powershell.ashx |
Outils de gestion de configuration et d'automatisation de l'infrastructure
Outil |
Statut |
Exemples et sources |
Ansible |
F5 a contribué |
https://github.com/F5Networks/f5-ansible |
Terraform |
F5 a contribué |
https://github.com/f5devcentral/terraform-provider-bigip |
Fantoche |
F5 a contribué |
https://github.com/f5devcentral/f5-puppet |
Cuisinier |
Contribution des utilisateurs |
https://github.com/target/f5-bigip-cookbook |
Pile de sel |
Tierce personne |
https://docs.saltstack.com/en/latest/ref/runners/all/salt.runners.f5.html |
Systèmes de modèles d'infrastructure
Plateforme |
Statut |
Exemples et sources |
AWS |
F5 pris en charge |
https://github.com/F5Networks/f5-aws-cloudformation |
Azuré |
F5 pris en charge |
https://github.com/F5Networks/f5-azure-arm-templates |
F5 pris en charge |
https://github.com/F5Networks/f5-google-gdm-templates |
|
OpenStack |
F5 pris en charge |
https://github.com/F5Networks/f5-openstack-hot |
Agents de démarrage et scripts cloud
Init dans le cloud
Bibliothèques en nuage
https://github.com/F5Networks/f5-cloud-libs
Intégrations de plateformes
Plateformes de gestion de conteneurs
Plateforme |
Statut |
Exemples et sources |
Kubernetes |
F5 pris en charge |
https://github.com/F5Networks/k8s-bigip-ctlr |
Fonderie de nuages pivots |
F5 pris en charge |
https://github.com/F5Networks/cf-bigip-ctlr |
Marathon |
F5 pris en charge |
https://github.com/F5Networks/marathon-bigip-ctlr |
Red Hat OpenShift |
F5 pris en charge |
Plateformes de Cloud privé
Plateforme |
Statut |
Exemples et sources |
OpenStack (LBaaS) |
F5 pris en charge |
https://github.com/F5Networks/f5-openstack-lbaasv2-driver |
OpenStack (chaleur) |
F5 pris en charge |
https://github.com/F5Networks/f5-openstack-hot |
VMware (vRO) |
Tierce personne |
https://bluemedora.com/products/f5/big-ip-for-vrealize-operations/ |
Les outils et intégrations ci-dessus représentent des moyens automatisés de déployer et de configurer la plate-forme BIG-IP pour fournir des services de disponibilité, de sécurité et de mise à l'échelle des applications. Ces services, aussi essentiels soient-ils, ne constituent qu’une partie d’un déploiement d’application full-stack. La création d’une pile d’applications complète avec les serveurs, les données, le code d’application compilé et l’infrastructure de manière coordonnée et testée nécessite plus qu’un simple outil d’automatisation.
Vous aurez besoin d’un outil d’orchestration de niveau supérieur, avec des flux de travail associés et des intégrations avec un certain nombre de systèmes d’automatisation. Ces outils sont le plus souvent utilisés dans les pratiques de travail d'intégration continue/livraison continue (CI/CD), pour lesquelles l'automatisation est, pour toutes les implémentations pratiques, requise. Bien qu'il existe un certain nombre d'outils d'orchestration, Jenkins est peut-être le plus courant, et il existe des exemples de workflows disponibles qui montrent comment vous pouvez utiliser Jenkins, F5 et Ansible pour intégrer les fonctionnalités d'infrastructure en tant que code de F5 dans un workflow CI/CD. En général, cependant, l’outil d’orchestration fonctionnera via l’un des outils d’automatisation de configuration pour apporter des modifications et déployer des services.
Les plates-formes BIG-IP nécessitent une licence pour fonctionner, il est donc utile d’inclure l’octroi de licences dans le chemin critique de l’automatisation. Dans les environnements hautement dynamiques où les périphériques virtuels BIG-IP peuvent devoir être rapidement mis à l'échelle ou réduits, ou créés à des fins de test et de développement, les modèles de licence doivent être soigneusement étudiés.
Dans le cloud public, une solution consiste à utiliser les versions de facturation des services publics du BIG-IP (disponibles via les marchés cloud). Les instances de facturation des services publics seront auto-licenciées et les coûts seront facturés via le fournisseur de cloud sur la base d'un paiement à l'utilisation ou d'un engagement de temps.
Une autre option consiste à utiliser des pools de licences réutilisables achetées par abonnement (ou perpétuellement) avec le gestionnaire de licences F5 BIG-IQ , qui vous permettra d'attribuer et de révoquer des licences d'un pool.
Vous pouvez automatiser les étapes d'octroi de licences via des agents de démarrage et des appels API, ce qui nécessitera un accès Internet sortant au serveur de licences F5 (même dans le cas de licences utilitaires sur des plateformes cloud).
Selon votre organisation, choisir les bons outils d’automatisation et d’orchestration peut être une tâche très simple ou difficile. C’est facile si vous avez déjà adopté un outil ou une méthodologie pour d’autres composants et que vous avez simplement besoin d’intégrer BIG-IP dans le système. Même sans intégration dans un outil particulier, la riche API REST iControl combinée aux capacités d'iControl LX et à cloud-init rend l'intégration de BIG-IP dans un outil d'automatisation existant relativement simple (surtout si elle est combinée avec des modèles iApp, qui peuvent être utilisés pour créer même une configuration complexe avec un seul appel d'API).
Cependant, si vous partez de zéro, les choses peuvent être plus complexes. Tout comme pour la sélection de toute autre solution, la compréhension de vos besoins doit être une priorité. Bien que ce document ne puisse pas établir votre liste d'exigences à votre place, voici un ensemble de questions et de recommandations pour vous aider à faire votre évaluation.
Modèle d'automatisation : Un modèle déclaratif sera beaucoup plus simple à utiliser pour vos consommateurs d’orchestration. Les consommateurs ont simplement besoin de savoir ce qu’ils veulent, plutôt que de suivre toutes les étapes procédurales pour y parvenir. La famille d’outils d’automatisation F5 représentera le déploiement « modèle » pour les sites greenfield à l’avenir.
Plateformes et environnements potentiels : Il est inévitable que les conteneurs et une gamme de plates-formes cloud constituent un élément clé de l’infrastructure des applications : planifiez en conséquence.
Compétences: Avez-vous déjà des compétences dans certaines des technologies sous-jacentes ? Gardez à l’esprit que ces compétences peuvent exister en dehors de votre service, mais au sein de votre entreprise dans son ensemble. Si tel est le cas, il peut être judicieux de choisir un outil qui utilise un langage que votre organisation a déjà adopté.
Capacité de support : Construisez uniquement des systèmes que vous pouvez prendre en charge. Cela peut sembler évident, mais la clé du succès est de choisir le niveau de complexité que vous pouvez offrir au sein de votre organisation, afin de maximiser les avantages de l’automatisation sans entraîner de frais opérationnels excessifs.
L’automatisation croissante des systèmes informatiques est inévitable. Adopter une approche stratégique en matière de fourniture d’applications clés et de services de sécurité garantira que les applications déployées par votre organisation restent sécurisées et disponibles. L’automatisation peut également vous aider à réduire vos frais opérationnels, en particulier lorsque vous travaillez sur plusieurs plates-formes et clouds publics.
Choisir le bon système d’automatisation peut être un défi et doit idéalement être réalisé dans le cadre d’un effort collaboratif et holistique, en tenant compte des compétences dont vous disposez, ainsi que de votre capacité à prendre en charge le système que vous construisez. Quelle que soit la solution choisie, vous pouvez être sûr que la plateforme BIG-IP et l’expertise F5 seront disponibles pour vous aider à fournir les services de qualité professionnelle sur lesquels vos applications comptent, quel que soit l’endroit où elles sont déployées.
Une note sur le support F5. F5 prend en charge plusieurs modèles et outils, mais pas tous. Lorsque le logiciel est disponible sur Github, le code pris en charge se trouve uniquement dans les dossiers « supported » des référentiels F5. D'autres logiciels auront les politiques de support définies dans les fichiers readme correspondants.
Les dernières nouveautés en matière de renseignement sur les menaces applicatives.
La communauté F5 pour les forums de discussion et les articles d'experts.