Da DevOps in der Infrastrukturdiskussion immer stärker in den Fokus rückt, sehen wir verschiedene Best Practices für die Einbindung von Containern und Microservices in die App-Entwicklung und DevOps-Prozesse. Allerdings haben DevOps- und IT-Experten immer noch Schwierigkeiten, eine Infrastruktur zu implementieren, die den modernen App-Entwicklungszyklus unterstützt. In der jüngsten Quali DevOps- und Cloud-Umfrage von 2018 mit 1.300 Teilnehmern mussten „fast 50 Prozent bis zu einem Monat auf den Zugriff auf die Infrastruktur warten, während 24 Prozent, insbesondere diejenigen mit verteilten Teams, länger als einen Monat warten müssen.“
Positiv zu vermerken ist, dass die Implementierung der Automatisierung nun auf der Hauptbühne steht. Die Quali-Umfrage ergab, dass „zwei Drittel der Befragten (67 Prozent) angaben, irgendeine Form der Automatisierung zu implementieren, um die Produktivität und Agilität zu verbessern … und von denen, die die Automatisierung bereits nutzen, verfügen 33 Prozent über Self-Service-Funktionen für ihre F&E- und Entwicklungs-/Testinitiativen.“ Automatisierung ist der Schlüssel für NetOps-Teams, die sich zu Super-NetOps-Experten entwickeln, die kontinuierliche Verbesserungs- und Bereitstellungsverfahren unterstützen und vorantreiben. App-Entwickler benötigen Automatisierung, um neue Bereitstellungen zu skalieren und mit den Geschäftsanforderungen Schritt zu halten. Zur Anpassung an die DevOps-Praktiken ist eine integrierte Self-Service- und Automatisierungslösung erforderlich, die von NetOps unterstützt wird und es AppDev ermöglicht, seine Ziele schnell zu erreichen.
App-Entwickler können ihre Entwicklung und Tests unter anderem durch die Einbindung von Containern und Microservices für maximale Effizienz und Portabilität vereinfachen. Darüber hinaus lässt sich die Ingress-Steuerung in die Container-Orchestrierungsumgebung integrieren, leitet den Datenverkehr an die beste verfügbare App weiter und ermöglicht eine durchgängige Verfügbarkeit sowohl in der Entwicklung als auch in der Produktion. „Ingress“ kann sich auf HTTP-Routing oder eine Sammlung von Regeln zum Erreichen der Clusterdienste beziehen, und „Ingress“ (kleingeschriebenes „i“) bezieht sich auch auf eingehende Verbindungen, App-Lastausgleich und Sicherheitsdienste. Der Schlüssel liegt darin, Probleme zu reduzieren, die die App-Entwicklung und -Bereitstellung verlangsamen, indem Self-Service und Automatisierung basierend auf Containerereignissen bereitgestellt werden.
Hier ermöglichen die dynamischen Application von F5 für Containerumgebungen eine reibungslose App-Skalierung mit Ingress-Kontrolle und App-Sicherheitsdiensten. Viele IT-Infrastrukturexperten entscheiden sich für die Container-Orchestrierungsintegration und Front-Door-App-Dienste von F5, indem sie BIG-IP und Container Connector auswählen, eine Lösung, die Ingress-Control-Dienste einschließlich HTTP- und URI-Routing, Lastausgleich und Application in Container- und Platform-as-a-Service (PaaS)-Bereitstellungen verwaltet.
F5 kann in PaaS-Frameworks wie RedHat OpenShift und Pivotal Cloud Foundry sowie in Containerumgebungen wie Kubernetes und Mesos/Marathon eingesetzt werden. F5 Container Connector ist eine Open-Source-Lösung und ermöglicht die Selbstbedienungsauswahl in der Container-Benutzeroberfläche oder liefert die Automatisierung von App-Diensten basierend auf der Container-Ereigniserkennung für ein schnelles Hoch- und Herunterfahren. Container Connector bietet mehr Flexibilität und Benutzerfreundlichkeit mit vordefinierten Richtlinien und Profilen für OpenShift Routes sowie Anmerkungen zum Umschreiben von Ziel-URLs für Kubernetes Ingress. Mit F5 können Sie den gesamten Containerverkehr sichtbar und beobachtbar machen und durch den Datenstromexport zu Überwachungs- und Analyseplattformen verbesserte App-Einblicke gewinnen. Erfahren Sie noch heute mehr auf f5.com , lesen Sie die technischen Informationen auf clouddocs.f5.com und laden Sie den F5 Container Connector noch heute herunter.