k8s-bigip-ctlr
) qui est disponible sur Dockerhub ou Github .Pendant trop longtemps, le rôle d’un proxy d’équilibrage de charge a simplement consisté à garantir que chaque demande reçoive une réponse rapide. Équilibrage de charge simple et traditionnel (POLB). POLB utilise des algorithmes pour distribuer les requêtes sur un pool de ressources. Tournoi à la ronde. Le moins de connexions. Réponse la plus rapide. L’objectif de ces algorithmes est toujours la destination ; la sélection d’une ressource disponible et rapide pour fournir une réponse et la renvoyer à un utilisateur impatient. L’objectif est la disponibilité, et POLB répond certainement à cette attente.
Certes, c’est utile, mais la mise à l’échelle des applications modernes ne se résume pas à la sélection du bon algorithme : il s’agit d’activer les architectures. La mise à l’échelle des applications modernes, en particulier celles déployées dans des environnements de conteneurs, nécessite la capacité non seulement de distribuer, mais également de diriger les demandes. L’objectif est d’atteindre l’efficacité et l’agilité à la fois de l’infrastructure et de l’entreprise, et c’est quelque chose que POLB ne peut pas réaliser. Nous devons aller au-delà de POLB si nous voulons prendre en charge les modèles de déploiement modernes tels que les tests A/B et les déploiements bleu/vert qui aident les opérations à évoluer aussi vite que l'entreprise en a besoin.
Cela nécessite un proxy intelligent qui peut non seulement distribuer les requêtes, mais également les diriger en fonction d’une variété d’informations disponibles auprès du client, du réseau et de l’environnement dans lequel ils opèrent. Un proxy L7, si vous préférez. Quel que soit le nom que nous lui donnons, il est suffisamment intelligent pour pouvoir analyser et comprendre une requête de haut en bas (HTTP) et être en mesure de prendre des décisions quant à l’endroit où diriger une requête.
Dans cet article, nous mettons en lumière la possibilité de configurer et d’implémenter facilement des tests A/B et des modèles de déploiement bleu/vert, qui nécessitent tous deux une certaine intelligence au niveau du proxy afin de diriger intelligemment les demandes vers les ressources appropriées.
Dans les environnements conteneurisés, cela nécessite la capacité de s'intégrer à l'environnement d'orchestration des conteneurs (COE) ainsi que de diriger intelligemment le trafic.
C'est ce que propose aujourd'hui F5 Container Connector pour Red Hat OpenShift. C'est la « colle » conteneurisée entre OpenShift et F5 BIG-IP qui nous permet de déplacer intelligemment le trafic d'une version d'une application à une autre (bleu-vert) ou d'activer un test basé sur la comparaison entre deux versions de la même application afin que l'entreprise puisse prendre une décision basée sur les données des visiteurs réels.
Vous pouvez en savoir plus sur les détails des deux dans la documentation , ou récupérer votre propre copie de notre connecteur de conteneur F5 sur Dockerhub ou Github et commencer dès aujourd'hui avec ces déploiements avancés.