Unternehmen verwenden Container-Plattformen wie Kubernetes oder RedHat OpenShift in Kombination mit agilen Entwicklungsmethoden, um die Entwicklung und Bereitstellung von Anwendungen zu beschleunigen.
Container sind grundlegende Infrastrukturkomponenten für die Entwicklung von cloudnativen Anwendungen, da sie die Flexibilität und Mobilität ermöglichen, dank der Entwickler die Methode „Einmal schreiben, überall laufen lassen“ nutzen können. Container reduzieren Abhängigkeiten und ermöglichen eine Skalierung auf Komponentenebene, was für die Modernisierung von Anwendungen, die Mikrodienste nutzen, von entscheidender Bedeutung ist.
Ihre Container-Anwendungen benötigen native Anwendungsbereitstellungsmechanismen, um eine optimale Leistung zu erzielen. Entwickler und DevOps-Teams benötigen eine leichtgewichtige, cloudagnostische Anwendungsbereitstellungslösung für Kubernetes- und OpenShift-Umgebungen.
Ein herkömmlicher Ansatz mit einer statischen Konfiguration, die nur von IT-Betreibern geändert wird, steht jedoch im Widerspruch zum Paradigma flexibler Container, bei dem neue Microservice-Container nur für wenige Minuten dynamisch erstellt werden können, um einen Anstieg der Nachfrage zu bedienen oder ein Upgrade einzuführen, indem alte Container einfach durch neue ersetzt werden.
Wie können Sie sicherstellen, dass die Bereitstellungen Ihrer Anwendungsdienste mit Ihren schnellen Freigabezyklen in Container-Umgebungen Schritt halten?
Sie benötigen zuverlässige Anwendungsbereitstellungsdienste, die in die Verwaltungsebene der Containerplattform integriert sind. Sie Ihre Container-Anwendungen am besten mit NGINX unterstützen, der mit mehr als 1 Milliarde Downloads am häufigsten heruntergeladenen und mit Sternen ausgezeichneten Anwendung auf DockerHub.
Und mit einem Marktanteil von 64 % ist NGINX laut Cloud Native Computing Foundation auch der bei weitem beliebteste Kubernetes Ingress Controller. NGINX unterstützt auch Red Hat OpenShift-Umgebungen, eine Container-Anwendungsplattform, die auf Kubernetes aufbaut.
Um konsistente und leistungsstarke Multi-Cloud-Anwendungsdienste in Container-Umgebungen bereitzustellen, nutzen Sie die folgenden Komponenten von NGINX.
NGINX Ingress Controller für Kubernetes
DevOps-Teams können mit dem NGINX Ingress Controller für Kubernetes den externen Zugriff auf ihre Kubernetes-Umgebungen bereitstellen. Dieser bietet unternehmensgerechte Bereitstellungsdienste für Kubernetes-Anwendungen, einschließlich Echtzeit-Metriken, Informationen zur Sitzungsdauer, aktive Integritätsprüfungen und eine JWT-Validierung.
Die Version NGINX Plus ermöglicht es Benutzern außerdem, eine unterbrechungsfreie Rekonfiguration durchzuführen, was eine konsistente Anwendungsleistung und Ressourcennutzung gewährleistet. Sie wird nach einem unterstützbaren Produktionsstandard erstellt sowie verwaltet und bietet Konsistenz und Stabilität, wobei die Abwärtskompatibilität erhalten bleibt.
NGINX Plus Router für OpenShift
In OpenShift-Umgebungen unterstützt NGINX die von der Open Shift Router-Ressource definierten Funktionen vollständig.
Der Router dient als Einstiegspunkt für alle externen Anfragen, die an die auf OpenShift laufenden Anwendungen gestellt werden, was ihn zu einem der kritischsten Teile der Plattform macht. Der NGINX Router ist über die Template Router-Software in OpenShift integriert – dieselbe Software, die auch der Standard-Router-Implementierung zugrunde liegt.
Unabhängig davon, wo sie ausgeführt werden, profitieren Anwendungen von der Leistung, die NGINX bietet.
Mit Lösungen, die für Kubernetes- und OpenShift-Umgebungen entwickelt wurden, können die Dienste von Anwendungen, die in dynamischen Container-Plattformen ausgeführt werden, nach Bedarf mithilfe von Tools, die zum Containerverwaltungssystem gehören, konfiguriert werden.
Lesen Sie mehr über die Zukunft der NGINX-Anwendungsplattform und wie F5 Unternehmen bei der Entwicklung ihrer Anwendungen für das digitale Zeitalter unterstützt.