F5 und Containerisierung

Einführung

Unternehmen stehen ständig vor der Herausforderung, einerseits den technologischen Wandel zu akzeptieren, um neue Geschäftschancen zu erschließen, und andererseits ihr Unternehmen vor neuen Herausforderungen und Risiken zu schützen. In diesem Dokument untersuchen wir die Containerisierung und wie sich die Einführung dieser Technologie in F5-Produkten auf IT-Experten, Architekten und geschäftliche Entscheidungsträger auswirkt.

In den letzten 20 Jahren hat die Virtualisierung das Server-Computing verändert und ermöglicht es, mehrere separate Betriebssysteme auf einer Hardwareplattform auszuführen. Ein modernerer Ansatz ist die Containerisierung (oder Betriebssystemvirtualisierung), die es ermöglicht, mehrere Apps auf einer einzigen Instanz eines Hostbetriebssystems auszuführen. Jede App-Instanz teilt dann die in der einzelnen Betriebssysteminstanz installierten Binärdateien und Bibliotheken. Abbildung 1 vergleicht diese Ansätze.

Abbildung 1 - Vergleich von virtuellen Maschinen mit Containern

Im Gegensatz zu virtuellen Maschinen (VMs) können Container dasselbe Betriebssystem gemeinsam nutzen und die Virtualisierung erfolgt auf Betriebssystemebene statt auf Hypervisorebene.

Es überrascht nicht, dass Entwickler Container mögen, da sie die Entwicklung und Bereitstellung von Anwendungen sowie die Erstellung von Microservices schnell und einfach machen. Die Containerisierung ermöglicht auch eine bessere Portabilität, da sich Apps in Containern einfacher auf verschiedenen Betriebssystemen, Hardwareplattformen und Cloud-Diensten bereitstellen lassen. Container verbrauchen weniger Ressourcen als Anwendungen, die direkt auf Bare-Metal-gehosteten Betriebssystemen oder auf virtuellen Maschinen ausgeführt werden.

Im Allgemeinen konzentriert sich der Großteil der Diskussion (und Dokumentation) zu Containern auf die Programmier- oder DevOps-Perspektive. Als IT-Experte, Systemarchitekt oder geschäftlicher Entscheidungsträger schätzen Sie zwar die Flexibilität, die die Containerisierung mit sich bringen kann, haben jedoch möglicherweise berechtigte Bedenken hinsichtlich der Auswirkungen dieser Änderung auf die Verwaltung und Überwachung von Apps und Diensten in Ihrer Umgebung. Sie möchten außerdem sicherstellen, dass die Containerisierung die Netzwerk- und App-Sicherheit nicht beeinträchtigt.

Umgang mit modernen IT-Herausforderungen

In einem zunehmend wettbewerbsorientierten Markt müssen moderne IT-Systeme realisierbare Geschäftsvorteile bieten. Um dieser Anforderung gerecht zu werden, müssen die IT-Abteilungen ihr Anwendungskapital steigern, indem sie Architekturen entwerfen und erstellen, die nicht nur mehr Apps bieten, sondern Apps mit größerer Funktionalität, verbesserter Benutzerfreundlichkeit und einfacherer Integration.

Die Herausforderung für IT-Leiter besteht darin, dass ihre Abteilungen mehr Funktionalität bereitstellen müssen, ohne den Personalbestand zu erhöhen. Produktivitätssteigerungen lassen sich heute nicht mehr durch die Einstellung zusätzlicher Mitarbeiter erzielen, sondern durch technologische Fortschritte und die Automatisierung. So lässt sich die Zahl der den Kunden zur Verfügung stehenden Apps erhöhen, die von einem Team gleicher Größe verwaltet werden können.

Eine weitere Herausforderung stellt die einfache Bereitstellung von Containern dar. Entwickler müssen geschult und angeleitet werden, um bei der Erstellung von Anwendungen sowohl den Umfang als auch die Sicherheit zu berücksichtigen. IT-Experten können ihnen dabei helfen, diese Ergebnisse zu erzielen. Dabei müssen Sie die Auswirkungen von Containerplattformen wie Kubernetes und Docker auf die Produktion bedenken und darauf achten, dass die notwendige Agilität nicht zu unerwünschten Ergebnissen aufgrund mangelhafter Sicherheitspraktiken oder einer fehlenden Berücksichtigung der Produktionslasten führt. 

Kubernetes ist eine Open-Source-Plattform zum Verwalten von containerisierten Diensten und Workloads. Kubernetes selbst war ursprünglich Googles System zur Containerplanung und -orchestrierung, das das Unternehmen dann der Cloud Native Computing Foundation spendete und den Quellcode für alle zugänglich machte. Docker bietet eine ähnliche Art von Open-Source-Architektur und -Verteilung, bestehend aus einer Suite gekoppelter Software as a Service (SaaS) und Platform as a Service (PaaS). 

Berechnung der Time-to-Value

Ein wesentlicher Faktor zur Erzielung realisierbarer Geschäftsvorteile besteht in der Minimierung der Wertschöpfungszeit. Faktoren wie Leistung und Latenz treten gegenüber der einfachen Einfügung zunehmend in den Hintergrund. Wenn also zwei Komponenten nahezu die gleiche Funktionalität aufweisen, die eine jedoch eine höhere Leistung hat und die andere leichter zu integrieren ist, entscheiden sich Unternehmen eher für die Komponente, die sich leichter in die aktuelle Umgebung integrieren lässt. Angesichts der zunehmenden Komplexität der Umwelt wird sich diese Tendenz wahrscheinlich fortsetzen.

Wertbestimmung

Wenn Sie eine Technologie wie die Containerisierung implementieren möchten, müssen Sie den Wert dieses neuen Ansatzes irgendwie messen können. Zu den wertbeeinflussenden Faktoren zählen typischerweise Eignung, Fähigkeit, Aufwand und Kosten. Die folgende Gleichung zeigt ein Beispiel, wie auf der Grundlage dieser Faktoren ein relativer Wert zugewiesen wird.

F5 und Containerisierung

Die Einheiten, die Sie in der Gleichung verwenden, sind irrelevant. Wichtig ist, dass sie für alle Elemente, die Sie auswerten, gleich sind.

Diese Gleichung unterstreicht, dass sich die Technologie nahtlos integrieren lassen muss und dass Vertrautheit (d. h. einfache Einbindung) wichtiger sein kann als erstklassige Funktionen oder Leistung. Folglich hat der Bereitstellungsaufwand einen ausgleichenden Effekt bei der Berechnung des Gesamtwerts. Dies kann dazu führen, dass weniger leistungsfähige Produkte aufgrund ihrer einfachen Einbindung für den Kunden attraktiver sind.

Ein Beispiel für diesen Effekt könnten zwei konkurrierende Überwachungslösungen sein. Produkt A verfügt über fantastische Spezifikationen mit erstklassiger Protokollierung und Berichterstellung. Es verfügt über Sicherheit auf Militärniveau und ist äußerst einfach zu verwalten. Leider erschweren die proprietäre Befehlszeilenschnittstelle, die mangelhafte Unterstützung offener Standards und das Fehlen von Integrationsfunktionen die Installation. Es ist auch teurer als die meisten anderen Produkte auf dem Markt.

Im Vergleich dazu verfügt Produkt B bei weitem nicht über die Fähigkeiten seines Konkurrenten, bietet aber dennoch ein akzeptables Maß an Überwachung und Sicherheit. Allerdings kann es im Vergleich zum Konkurrenzprodukt sowohl hinsichtlich der Kosten als auch hinsichtlich der einfachen Installation punkten. Durch die tabellarische Auflistung der Bewertungen für jedes Produkt ergibt sich die folgende Tabelle mit Noten von 1 bis 10 für Eignung, Leistungsfähigkeit und Installationsaufwand, wobei 1 die niedrigste und 10 die höchste Bewertung ist.

 

Produkt A

Produkt B

Eignung

10

4

Fähigkeit

10

2

Installationsaufwand

10

2

Kosten

1.000 US-Dollar

500 US-Dollar

Wert

20

60

Wenn wir diese Zahlen in die obige Gleichung einsetzen, erhalten wir den Wert, der in der unteren Zeile der Tabelle aufgeführt ist.

Sie sehen, dass das weniger geeignete und leistungsfähige Produkt, das fünfmal einfacher zu installieren ist und nur die Hälfte kostet, im Vergleich zu seinem besten Konkurrenten schätzungsweise den dreifachen Wert bietet. Viele Unternehmen sind sich dieser Überlegungen bewusst und betrachten die einfache Installation und Integration bei der Einführung und Bereitstellung neuer Technologien zunehmend als Schlüsselfaktor. Containerbasierte Ansätze können den Bereitstellungsaufwand und die Kontrollkosten erheblich reduzieren, während gleichzeitig Eignung und Leistungsfähigkeit erhalten bleiben.

Warum erfreuen sich Container zunehmender Beliebtheit?

Da Apps den Geschäftswert zunehmend steigern, bietet die Containerisierung eine logische Lösung für die Herausforderungen DevOps-zentrierter IT-Implementierungspraktiken. Container sorgen für die Isolation von der Plattform, auf der sie ausgeführt werden, sowie voneinander, ohne dass der Verwaltungsaufwand für den Betrieb virtueller Maschinen entsteht. Entwickler können problemlos App-Umgebungen erstellen, die alle benötigten Binärdateien und Bibliotheken enthalten und über die erforderlichen integrierten Netzwerk- und Verwaltungsfunktionen verfügen. Darüber hinaus vereinfacht die Containerisierung das Testen und Bereitstellen von Anwendungen.

Containerbasierte Umgebungen ermöglichen eine bessere Ressourcenauslastung als virtuelle Computer, indem sie die Anzahl der Anwendungsinstanzen, die auf einem Server ausgeführt werden können, massiv erhöhen. Ohne den Overhead von Host- und Gastbetriebssystemen nutzen Containerumgebungen Prozessorzeit und Speicherplatz effizienter, indem sie den Betriebssystemkernel gemeinsam nutzen. Die Containerisierung bietet auch mehr architektonische Flexibilität, da die zugrunde liegende Plattform entweder eine virtuelle Maschine oder ein physischer Server sein kann. Red Hat Produktstrategie1 zeigt, dass fast die Hälfte der Kubernetes-Kunden, die künftig Apps in Containern bereitstellen, die Container-Engine direkt auf Bare Metal ausführen werden.

Die Containerisierung stellt den nächsten Fortschritt auf dem Weg vom hardwarebasierten Computing zur Virtualisierung und zur Multi-Cloud dar und ermöglicht eine Automatisierung von bis zu 100 %, Serviceerstellungszeiten von unter einer Sekunde sowie Servicelebensdauern, die in Sekunden gemessen werden können. Containerumgebungen wie Docker, OpenShift und Kubernetes ermöglichen dieses sofortige Bereitstellen und Aufheben der Bereitstellung von Diensten und Mikrodiensten innerhalb einer modernen IT-Architektur.

Wichtig ist, dass die Containerisierung einen entscheidenden Vorteil bietet, der in der heutigen Multiplattform- und Multi-Cloud-Welt von entscheidender Bedeutung ist: die Möglichkeit, Apps von lokalen Standorten in die Cloud, zu einem anderen Cloud-Anbieter und wieder zurück in die lokalen Standorte zu portieren, und zwar ohne Änderungen am zugrunde liegenden Code. Da die Interoperabilität ein zentraler Faktor für Architekturentscheidungen ist, ermöglicht diese Portabilität den IT-Abteilungen, wichtige Meilensteine bei der Bereitstellung von App-Diensten zu erreichen, und unterstützt DevOps-Teams bei der Erfüllung organisatorischer Ziele. Ein aktueller IBM-Bericht2 hebt hervor, wie Unternehmen durch die Verwendung von Containern für die App-Bereitstellung auch die App-Qualität verbessern, Fehler reduzieren und Anwendungsausfallzeiten und die damit verbundenen Kosten minimieren können.

Derselbe Bericht listet auch Anwendungen auf, die sich besonders für containerbasierte Umgebungen eignen, darunter Datenanalyse, Webdienste und Datenbanken. Der Schlüsselfaktor ist hier die Leistung. Zu den weiteren relevanten Faktoren, die berücksichtigt werden müssen, gehört jedoch, ob die Anwendungen voraussichtlich in mehreren Umgebungen ausgeführt werden und ob sie Microservices verwenden, um mehrere parallel arbeitende DevOps-Teams zu unterstützen. Mit Containern können Sie Leistungsprobleme beheben, indem Sie einfach mehr Instanzen einer App hochfahren – vorausgesetzt, Sie implementieren ein zustandsloses Architekturdesign und stellen App-Dienste im großen Maßstab bereit.

Container-Herausforderungen

Container bringen bei der Bereitstellung einige Herausforderungen mit sich und die noch junge Technologie hat noch nicht den Reifegrad der Virtualisierung erreicht. Der folgende Abschnitt beleuchtet einige der Herausforderungen, die Container mit sich bringen.

  1. Schlüsselverwaltung – Die Schlüsselverwaltung zwischen Containern kann problematisch sein, insbesondere weil ein Hauptvorteil von Containern die Portabilität ist. Ihre Schlüsselverwaltungsumgebung muss in der Lage sein, die Bewegung von Containern zwischen lokalen Hosts sowie in die Cloud und wieder zurück zu bewältigen.
  2. Vernetzung – Container stellen aufgrund der Geschwindigkeit, mit der Container hoch- und heruntergefahren werden können, eine Herausforderung für traditionelle Vernetzungsmodelle dar. Folglich wären statische Netzwerkadressen in einer solchen Umgebung nicht praktikabel. Und obwohl Adressierungsmechanismen wie das Dynamic Host Configuration Protocol (DHCP) bei physischen Hosts und virtuellen Maschinen gut funktionierten, können Container-Workloads erscheinen und verschwinden, bevor die IP-Adresse des Containers sie registrieren kann und der Container selbst erkennbar wird. Die Trennung von der physischen Netzwerkhardware durch die Verwendung von containerbasiertem Software-Defined Networking (SDN) ist von entscheidender Bedeutung, damit Sie ganze Containertopologien von lokalen in private und öffentliche Cloudumgebungen migrieren können. Die meisten Containerumgebungen implementieren eine Form der Container Network Interface (CNI), um diese Funktion auszuführen.
  3. Mehrere Containertechnologien – In Ihrer Organisation sind möglicherweise bereits mehrere unterschiedliche Containertechnologien in der Umgebung implementiert. Selbst bei diesen Implementierungen ist es wahrscheinlich, dass Ihren Mitarbeitern das tiefe technische Verständnis all dieser Umgebungen fehlt. Schulungen sind wichtig und Sie müssen Ihrem Team Zeit geben, sich mit diesen verschiedenen Containerimplementierungen vertraut zu machen. Auch die Verwaltung dieser verschiedenen Containertechnologien ist teurer. Verbesserungen bei der Verwaltbarkeit, insbesondere in der neuesten Kubernetes-Version, führen jedoch dazu, dass Unternehmen standardmäßig die einfachste und am häufigsten verwendete Umgebung verwenden.
  4. Risiken der Standardkonfiguration – Da Apps in Containern entwickelt werden, steigt das Risiko falsch konfigurierter Container. Ein Beispiel ist die Bereitstellung von Containern in ihrer Standardkonfiguration. Globale Bedrohungsaufklärung von Unit 42 in Palo Alto3 Vor Kurzem wurden über 40.000 einzigartige Containergeräte identifiziert, die über die Standardkonfigurationseinstellungen verfügen. Natürlich sind nicht alle dieser Instanzen anfällig für Ausnutzungen, aber es zeigt, dass grundlegende Fehlkonfigurationspraktiken weit verbreitet sind und diese Organisationen zu Zielen für weitere Ausnutzungen machen.

Abbildung 2 - Erreichen einer ausgewogenen Containerisierung

Ausgewogene Containerisierung

Ein wichtiges Designkriterium bei der Containerisierung ist ein Gleichgewicht zwischen den drei Vektoren Leistung, Dichte und Zuverlässigkeit, wie in Abbildung 2 dargestellt.

Der Ansatz von F5 besteht darin, sich auf die Containerisierung auf Komponentenebene und nicht auf Systemebene zu konzentrieren. Dieser Ansatz bringt mehrere Vorteile mit sich, darunter:

  • Reduzieren Sie den Speicherbedarf jedes Containers, indem Sie nicht verwendeten Netzwerkfunktionen keinen Speicher zuweisen.
  • Minimieren Sie die Abhängigkeit vom Host-CNI und vermeiden Sie dadurch Netzwerkleistungsprobleme.
  • Implementierung kleiner, leichtgewichtiger Komponenten, die den Fehlerbereich auf die Abonnenten-/Benutzerebene bringen.

Durch Containerisierung auf Komponentenebene können wir dieses Drei-Wege-Gleichgewicht durch Disaggregation, Planung und Orchestrierung erreichen. F5-Produkte, die Container implementieren, nutzen diese Funktionen dann, um die Vorteile der Containerisierung zu maximieren.

F5 Container-Ingress-Dienste

Um Unternehmen bei der Einführung containerbasierter Technologien zu unterstützen, bietet F5 F5® Container Ingress Services an, eine Open-Source-Containerintegration. Container Ingress Services bietet Automatisierungs-, Orchestrierungs- und Netzwerkdienste wie Routing, SSL-Offload, HTTP-Routing und robuste Sicherheit. Wichtig ist, dass es unsere Palette an BIG-IP-Diensten in native Containerumgebungen wie Kubernetes und Red Hat OpenShift integriert.

Architektonisch gesehen nehmen Container Ingress Services in Bezug auf Ihre containerisierten Apps die folgende Position ein: Sie fügen Front-Door-Ingress-Controller-Dienste hinzu und ermöglichen Sichtbarkeit und Analyse über BIG-IP.

Abbildung 3 – F5 Container Ingress Services

Container Ingress Services befasst sich mit zwei der wichtigsten Probleme, die zuvor in diesem Dokument identifiziert wurden: Skalierbarkeit und Sicherheit. Sie können Apps skalieren, um Container-Workloads gerecht zu werden und Containerdaten durch die Aktivierung von Sicherheitsdiensten zu schützen. Mit der BIG-IP-Plattformintegration können Sie die Leistung von Self-Service-Apps in Ihrer Orchestrierungsumgebung implementieren. Durch die Verwendung von Container Ingress Services wird auch die Wahrscheinlichkeit verringert, dass Entwickler Kubernetes-Container mit Standardeinstellungen implementieren, indem Helm-Diagramme für vorlagenbasierte Bereitstellungen und Upgrades verwendet werden.

Darüber hinaus ermöglichen Container Ingress Services Sicherheit mit erweitertem Angriffsschutz für Container-Anwendungen und Zugriffskontrolldiensten. Für App-Entwickler und DevOps-Experten, die mit Konfigurationen nicht vertraut sind, bieten die Anwendungsdienste von F5 neben DevCentral-Kunden- und Open-Source-Communitys auch sofort einsatzbereite Richtlinien und rollenbasierte Zugriffskontrolle (RBAC) mit Support auf Unternehmensniveau.

NGINX Kubernetes Ingress Controller

Die mit nativem Kubernetes verbundenen Herausforderungen bestehen darin, moderne Container-Apps ohne erhöhte Komplexität zu entwickeln und zu skalieren. Es kann Einschränkungen bei Leistung und Zuverlässigkeit geben und Dienste, die einen Zugang zu Kubernetes-Containern bieten, sind möglicherweise inkonsistent implementiert, sodass für Bereitstellung und Konfiguration ein größerer Integrationsaufwand erforderlich ist.

Die Lösung für diese Herausforderungen ist der NGINX Kubernetes Ingress Controller , der die grundlegende Kubernetes-Umgebung erweitert, indem er Bereitstellungsdienste für Kubernetes-Apps bereitstellt. Normalerweise können Kubernetes-Pods nur mit anderen Pods im selben Cluster kommunizieren. Abbildung 4 zeigt den Kubernetes Ingress Controller, der den Zugriff vom externen Netzwerk auf Kubernetes-Pods ermöglicht und über Ingress-Ressourcenregeln gesteuert wird, die Faktoren wie den URI-Pfad (Universal Resource Identifier), den Namen des zugrunde liegenden Dienstes und andere Konfigurationsinformationen steuern. Die verfügbaren Dienste hängen davon ab, ob Sie NGINX oder NGINX Plus verwenden. 

Abbildung 4 – NGINX Ingress Controller für Kubernetes

Unternehmen, die NGINX verwenden, erhalten Funktionen wie Lastausgleich, SSL- oder TLS-Verschlüsselungsbeendigung, URI-Umschreiben und Upstream-SSL- oder TLS-Verschlüsselung. NGINX Plus bietet zusätzliche Funktionen, wie z. B. Sitzungspersistenz für zustandsbehaftete Anwendungen und JSON Web Token (JWT)-API-Authentifizierung.

Aspen-Netz

Wenn Unternehmen Microservices einführen, um die Flexibilität der Entwickler und die Cloud-native Skalierbarkeit zu verbessern, müssen sie eine Lernkurve durchlaufen, während die organisatorischen Fähigkeiten mit der Technologie Schritt halten müssen. Diese Unternehmen möchten die Vorteile von Microservices schnell nutzen und gleichzeitig die Stabilität bewahren, die die Grundlage ihres Kundenerlebnisses bildet.

Aspen Mesh ist eine vollständig unterstützte Version des Open-Source-Service-Mesh Istio , das Unternehmen dabei hilft, Microservices und Kubernetes in großem Maßstab einzuführen und die Sichtbarkeit, Kontrolle und Sicherheit von Microservice-Architekturen zu verbessern. Aspen Mesh fügt wichtige Service Mesh-Unternehmensfunktionen hinzu, darunter eine Benutzeroberfläche, mit der sich der Status und die Integrität Ihrer Dienste leicht visualisieren und verstehen lassen, feinkörniges RBAC sowie Richtlinien- und Konfigurationsfunktionen, die das Erzielen eines gewünschten Verhaltens in Ihren Containeranwendungen erleichtern.

Aspen Mesh bietet eine Kubernetes-native Implementierung, die in Ihrem Kubernetes-Cluster bereitgestellt wird und in Ihrer privaten oder öffentlichen Cloud oder vor Ort ausgeführt werden kann. Wichtig ist, dass es mit einem F5-basierten Ingress-Mechanismus zusammenarbeiten kann und Container Ingress Services verwendet, um tiefere Layer-7-Funktionen bereitzustellen.

In Bezug auf die Architektur nutzt Aspen Mesh ein Sidecar-Proxy-Modell, um containerisierten Anwendungen zusätzliche Funktionalität und Sicherheit zu verleihen (siehe Abbildung 5).

Abbildung 5 – Aspen Mesh-Architektur

F5 und Container-Einführung

F5 ist Vorreiter bei der Einführung von Containern und bietet Unternehmen die Möglichkeit, zuverlässige, sichere und leistungsstarke Anwendungsumgebungen in Containern auszuführen, die Anwendungsdienste sowohl in einfachen als auch in massiven, branchenspezifischen Workloads skalieren. Die Containertechnologie wird eine Schlüsselrolle in zukünftigen Anwendungsentwicklungs- und Bereitstellungsumgebungen spielen, beispielsweise bei serverlosen Implementierungen, Service-Mesh-Architekturen und Mobile-Edge-Sicherheit. Als Unternehmen nutzt F5 sowohl seine eigene Entwicklungsforschung als auch kommerzielle Implementierungen von Containern, um Apps und Dienste voranzutreiben und zu entwickeln, die für Ihr Unternehmen einen Unterschied machen.

Wie bei der Virtualisierung bestehender Produkte integrieren wir Containertechnologie auf eine Weise, die für den Administrator möglicherweise nicht sofort offensichtlich, für den Endbenutzer jedoch völlig transparent ist. Als Kunde profitieren Sie von einer gesteigerten Leistung, Flexibilität und Sicherheit. Da wir diese neuen Apps und Dienste nahtlos implementieren, können Sie sich darauf konzentrieren, sicherzustellen, dass Sie über die Funktionalität verfügen, die Sie benötigen.

Wir arbeiten außerdem daran, die besten Open-Source-Lösungen in unsere Produkte zu integrieren, die Dienste dieser Open-Source-Plattformen zu erweitern und die Fähigkeiten unserer Containerumgebungen zu verbessern. Unser Ziel besteht stets darin, Produkte zu entwickeln, die einfacher bereitzustellen, schneller in Ihre vorhandenen Netzwerke zu integrieren und zuverlässiger und sicherer sind.

Bei der Umsetzung unserer Container-Einführungsstrategie konzentrieren wir uns auf die folgenden Ansätze:

  • Erweitern Sie die Palette der von uns angebotenen nicht sicherheitsbezogenen Anwendungsservices. Der Schwerpunkt liegt hier auf der Bereitstellung besserer Tools, die die Beobachtung und Verwaltbarkeit von Containerumgebungen verbessern, einschließlich Anwendungsleistungsmanagement, Protokollierung und Nachverfolgung, verbessertem Debugging und einer allgemeinen Überwachung der Anwendungsintegrität.
  • Fügen Sie Containern nicht auf die Datenebene ausgerichtete Sicherheitsdienste hinzu. Hier planen wir Innovationen, indem wir Sicherheitsdienste anbieten, die die Angriffsfläche für laufende Container verringern.
  • Aktivieren Sie das Hosten von Containern von Drittanbietern in F5-Produkten. Diese Integrationsoption würde es ermöglichen, vom Kunden entwickelte oder von Drittanbietern entwickelte Apps innerhalb einer flexiblen Container-Runtime-Schnittstelle innerhalb aktueller und zukünftiger F5-Produkte auszuführen. Mit diesem Ansatz könnte F5 schlüsselfertige Lösungen erstellen, die eine Reihe vorgefertigter oder individuell entwickelter Container und Apps umfassen und so die Interoperabilität deutlich verbessern.
  • Stellen Sie mithilfe von Open-Source-Tools Verpackungen für vorhandene Anwendungsdienste bereit. Diese Option bietet uns die Möglichkeit, Ihnen konsistente Servicerichtlinien für bestehende und neue Umgebungen anzubieten.
  • Automatisieren Sie die Skalierung und Sicherheitsdienste von Container-Apps, um die Anzahl der verwalteten Anwendungen zu erhöhen und gleichzeitig die zu ihrer Unterstützung zugewiesenen Ressourcen beizubehalten.
Die Zukunft der Container

F5 engagiert sich für eine Zukunft, in der Container ein grundlegender Bereitstellungsmechanismus für viele zukünftige App-Service-Technologien sind. Zu diesen Technologien gehören Serverless, Service Mesh und Mobile Edge, möglicherweise aber auch andere Ansätze, die sich derzeit in der Entwicklung befinden oder noch nicht vorgesehen sind. Wir gestalten unsere Produktpalette neu, um Container in unsere Lösungen zu integrieren, ohne die wichtigen Aspekte eines effektiven Netzwerkmanagements zu beeinträchtigen.

Genau wie bei der Virtualisierung werden sich die Container selbst der zugrunde liegenden Fähigkeiten der Hardware, auf der die Container-Engine läuft, stärker bewusst. Multithreading, Speichergeschwindigkeiten, Speicherzugriff und Vernetzung werden für die in den einzelnen Containern ausgeführten Apps zunehmend transparenter, wodurch die Ressourcennutzung weiter optimiert wird.

Wir sehen Container nicht als Ersatz für die Virtualisierung, sondern als Ergänzung dazu. Deshalb gehen wir davon aus, dass Container mindestens dieselbe Lebensdauer haben werden wie Virtualisierungen, und dass die Koexistenz fortbesteht. Schließlich erwarten wir das Aufkommen weiterer Abstraktionsebenen, die neben Virtualisierung und Containern koexistieren werden.

Wir sind uns bewusst, dass die Sicherheit für unsere Kunden immer ein zentrales Anliegen sein wird. Aus diesem Grund nutzt F5 weiterhin seine Erfahrung mit Hardware- und Software-Appliances, Firewalls und Netzwerken, um für alle seine Produkte die größtmögliche Sicherheit zu gewährleisten.

Zusammenfassend lässt sich sagen, dass F5 zusätzlich zu unserer bereits vorhandenen Container-Technologie plant, weiterhin Container in die F5-Produktpalette zu integrieren, um Ihnen mit aktualisierten und zukünftigen Apps mehr Integrationsoptionen, höhere Zuverlässigkeit, verbesserte Leistung und kürzere Bereitstellungszeit zu bieten.

Weitere Informationen zu F5 und Container-Unterstützung für Apps finden Sie unter f5.com/solutions/bridge-f5-with-container-environments

1 Der Aufstieg der Bare-Metal-Kubernetes-Server , Container Journal, Mike Vizard, 2019
2 Der Stand der containerbasierten App-Entwicklung , IBM Cloud Report, 2018
3 Falsch konfiguriert und offengelegt: Containerdienste , Palo Alto Networks, Nathaniel Quist, 2019

Veröffentlicht am 23. Juni 2022
  • Auf Facebook teilen
  • Teilen mit X
  • Auf Linkedin teilen
  • Teilen per E-Mail
  • Teilen über AddThis

Verbinden mit F5

F5 Labs

Die neuesten Erkenntnisse im Bereich Anwendungsbedrohungsinformationen.

DevCentral

Die F5-Community für Diskussionsforen und Expertenartikel.

F5-Newsroom

Neuigkeiten, F5-Blogs und mehr.