k8s-bigip-ctlr
), die auf Dockerhub oder Github verfügbar ist.Lange war die Aufgabe eines Load-Balancing-Proxys einfach: jede Anfrage schnell zu beantworten. Einfaches klassisches Lastenausgleichsverfahren (POLB). POLB verteilt Anfragen mit Algorithmen über einen Ressourcenpool. Round Robin. Wenigste Verbindungen. Schnellste Antwort. Diese Algorithmen konzentrieren sich immer auf das Ziel; sie wählen eine verfügbare und schnelle Ressource aus, um die Antwort rasch an den ungeduldigen Nutzer zurückzuleiten. Das Ziel ist die Verfügbarkeit, und POLB erfüllt diese Erwartung zuverlässig.
Das ist zwar nützlich, doch bei der Skalierung moderner Anwendungen geht es um mehr als nur die Auswahl des richtigen Algorithmus – es geht darum, Architekturen zu ermöglichen. Das Skalieren moderner Anwendungen – insbesondere solcher, die in Containerumgebungen eingesetzt werden – erfordert die Fähigkeit, Anforderungen nicht nur zu verteilen, sondern auch weiterzuleiten. Das Ziel besteht darin, die Effizienz und Agilität sowohl der Infrastruktur als auch des Geschäfts zu steigern, und das ist etwas, was POLB nicht realisieren kann. Wir müssen über POLB hinausgehen, wenn wir moderne Bereitstellungsmuster wie A/B-Tests und Blue/Green-Bereitstellungen unterstützen möchten, die dazu beitragen, dass der Betrieb so schnell voranschreitet, wie es für das Unternehmen erforderlich ist.
Dazu ist ein intelligenter Proxy erforderlich, der die Anfragen nicht nur verteilen, sondern auch auf der Grundlage verschiedener verfügbarer Informationen vom Client, dem Netzwerk und der Umgebung, in der er ausgeführt wird, weiterleiten kann. Ein L7-Proxy, wenn Sie das bevorzugen. Wie auch immer wir es nennen, es ist intelligent genug, um eine Anfrage von oben (HTTP) bis unten (IP) zu analysieren und zu verstehen und Entscheidungen darüber treffen zu können, wohin eine Anfrage gerichtet werden soll.
In diesem Beitrag zeigen wir, wie Sie A/B-Tests und Blue/Green-Bereitstellungsmuster einfach konfigurieren und umsetzen können. Beide erfordern eine intelligente Steuerung am Proxy, damit Anfragen gezielt an die passenden Ressourcen geleitet werden.
In Containerumgebungen erfordert dies die Fähigkeit zur Integration in die Container-Orchestrierungsumgebung (COE) sowie zur intelligenten Steuerung des Datenverkehrs.
Das ist, was der F5 Container Connector für Red Hat OpenShift heute bietet. Es handelt sich um den containerisierten „Klebstoff“ zwischen OpenShift und F5 BIG-IP , der es uns ermöglicht, den Datenverkehr intelligent von einer Version einer Anwendung auf eine andere zu verschieben (Blau-Grün) oder einen vergleichsbasierten Test zwischen zwei Versionen derselben App zu ermöglichen, sodass das Unternehmen eine Entscheidung auf Grundlage der Daten echter Besucher treffen kann.
Weitere Einzelheiten zu beiden finden Sie in der Dokumentation . Sie können sich auch Ihre eigene Kopie unseres F5 Container Connector auf Dockerhub oder Github holen und noch heute mit diesen erweiterten Bereitstellungen beginnen.