Beschleunigen Sie die Markteinführungszeit, ohne Kompromisse bei Sicherheit und Leistung einzugehen

Wenn es darum geht, die Softwarebereitstellung und Betriebsleistung zu verbessern, benötigen Sie leichte, flexible Lastenausgleichsmodule, die in der Nähe der Apps selbst bereitgestellt werden und sich problemlos in Ihren Application integrieren lassen. Hier kommt NGINX ins Spiel.

Die Herausforderung? Tolle Apps schnell und sicher bereitstellen

Applications sind für moderne Organisationen die neue Form des Kapitals und daher für den Erfolg einer Organisation von entscheidender Bedeutung. Mit diesem neuen anwendungszentrierten Vorstoß entsteht eine Kluft zwischen Apps und Infrastruktur. Auf der einen Seite gibt es Entwickler, die Wert darauf legen, schnell zu handeln und häufig bereitzustellen, um einen größeren Mehrwert für die Benutzer zu schaffen. Doch schnelles Handeln steht im Widerspruch zum Betrieb, der auf Zuverlässigkeit, Sicherheit und Leistung Wert legt, um sicherzustellen, dass die Apps die Erwartungen der Kunden erfüllen.

Das können Sie tun

Um die Wünsche und Bedürfnisse sowohl der Entwickler als auch der Betriebsteams zu erfüllen, müssen Sie Ihren DevOps-Teams die Möglichkeit geben, Load Balancer näher an den Apps zu verwalten, die sie entwickeln und pflegen, während die NetOps-Teams die Kontrolle über das F5-Gerät am Frontend behalten. Auf diese Weise erzielen Sie die Agilität und Time-to-Market-Vorteile, die Ihr App-Team braucht, ohne die Zuverlässigkeit und Sicherheitskontrolle zu beeinträchtigen, die Ihre Netzwerkteams benötigen.

Wie F5 helfen kann

Die Cloud-nativen NGINX-Software-Load Balancer von F5 helfen, die Lücke zwischen DevOps und NetOps zu schließen. Mit dieser Lösung können Sie Ihren unternehmensweiten BIG-IP-Load Balancer erweitern, indem Sie leichte, portable NGINX-Load Balancer näher an den Apps selbst bereitstellen.

F5 NGINX ADC-Erweiterungsdiagramm
Lösungsleitfaden

Trends

Laut Forrester implementieren 50 % der Unternehmen DevOps-Praktiken, um die Markteinführungszeit zu verkürzen (hohe Funktionsgeschwindigkeit) und die Stabilität zu verbessern (geringere Ausfallhäufigkeit und schnellere Problemlösung).

Parallel zum Wachstum von DevOps-Praktiken modernisieren Unternehmen Apps mithilfe von Microservices- Architekturen, bei denen verschiedene Applications in diskrete, gebündelte Dienste aufgeteilt werden. Fast 10 % der Apps werden völlig neu als Microservices erstellt, während weitere 25 % Applications sind (monolithisch mit angehängten Microservices, manchmal auch als „Miniservices“ bezeichnet).

Der Übergang zu DevOps-Prinzipien und die Einführung von Microservices-Architekturen haben tiefgreifende Auswirkungen auf alle Aspekte der Application und Infrastruktur. Laden Sie den NGINX-Lösungsleitfaden herunter, um alle Einzelheiten zu erfahren. 

Devops-Transformation

Diese Trends verändern die Art und Weise, wie wir über Applications denken und sie entwickeln.

  • Menschen
    Die Kontrolle verlagert sich von den Infrastrukturteams auf die Application . Um eine schnelle Markteinführung zu erreichen, möchte DevOps die Kontrolle über die Infrastruktur haben, die die von ihnen entwickelten und gewarteten Apps unterstützt. 

  • Verfahren
    DevOps beschleunigt die Bereitstellungszeit. Moderne App-Infrastrukturen müssen um ein Vielfaches schneller automatisiert und bereitgestellt werden – andernfalls besteht die Gefahr, dass sich die Implementierung wichtiger Fehlerbehebungen und Verbesserungen verzögert.

  • Technologie
    Die Infrastruktur entkoppelt Software von der Hardware. Softwaredefinierte Infrastruktur, Infrastruktur als Code und zusammensetzbare Infrastruktur beschreiben allesamt neue Bereitstellungsarchitekturen, bei denen programmierbare Software auf Standardhardware oder öffentlichen Cloud-Computing-Ressourcen ausgeführt wird.

Herausforderung

Während DevOps und Microservices alle Aspekte der Anwendungsinfrastruktur beeinflussen, verändern sie insbesondere die Art und Weise, wie Unternehmen Load Balancer-Technologie einsetzen, da der Load Balancer der intelligente Kontrollpunkt ist, der sich vor all Ihren Apps befindet.

Allerdings müssen verschiedene Teams in Ihrer Organisation auf unterschiedliche Weise auf die Lastausgleichstechnologie zugreifen.

  • Unternehmen
    Unternehmen nutzen einen zentralen Load Balancer mit erweiterten Funktionen, um den gesamten Application zu verwalten und so den Bereitstellungsdurchsatz und die Stabilität zu verbessern. Das F5-Gerät direkt vor Ihrer Umgebung übernimmt die Schwerstarbeit – es bietet erweiterte Application wie lokales und globales Verkehrsmanagement, DNS-Management, Bot-Schutz, DDoS-Minderung, SSL-Offload sowie Identitäts- und Zugriffsverwaltung. 
  • DevOps
    DevOps-Teams müssen häufig Änderungen am Load Balancer implementieren, um neue Apps einzuführen, vorhandenen Apps neue Funktionen hinzuzufügen oder die Skalierung zu verbessern. Bei herkömmlichen Prozessen muss sich DevOps auf Infrastruktur- und Betriebsteams (I&O) verlassen, um die Konfiguration des Load Balancers zu ändern und ihn in der Produktion erneut bereitzustellen. 
  • Operationen
    I&O-Teams gehen normalerweise vorsichtig vor, da sie Hunderte oder möglicherweise Tausende von Applications mithilfe eines zentralen Lastenausgleichs unterstützen müssen. Jeder Fehler könnte katastrophale Auswirkungen auf die Leistung und Sicherheit der gesamten App-Landschaft des Unternehmens haben. Daher nimmt das I&O-Team Änderungen zunächst in Testumgebungen vor und führt diese anschließend in der Produktion ein. Diese Betriebsverfahren tragen zwar dazu bei, dass sich Änderungen nicht negativ auf Ihr Application auswirken, ihre Einhaltung kann jedoch das Entwicklungs- und Innovationstempo verlangsamen.

Lösung

Sie können die Geschwindigkeit der Softwarebereitstellung und die Betriebsleistung verbessern, indem Sie leichte, flexible Lastenausgleichsmodule einsetzen, die sich problemlos in Ihren Application näher an Ihren Apps integrieren lassen.

Die Cloud-native ADC-Lösung von F5, NGINX, ist ein Software-Load Balancer, der Ihnen helfen kann, die Kluft zwischen DevOps und NetOps zu überbrücken.  

  • Wie es funktioniert
    Es gibt drei gängige Bereitstellungsmodelle für die Erweiterung Ihrer F5 BIG-IP-Infrastruktur mit NGINX:
    • Stellen Sie NGINX hinter dem F5-Gerät bereit, damit es als DevOps-freundliche Abstraktionsschicht fungiert.
    • Stellen Sie für jede Ihrer Apps oder sogar für jeden Ihrer Kunden eine NGINX-Instanz bereit.
    • Führen Sie NGINX als Ihren Multi-Cloud Application -Load Balancer für Cloud-native Apps aus.

    Da der programmierbare NGINX-Load Balancer leichtgewichtig ist, verbraucht er nur sehr wenige Rechenressourcen und belastet Ihre Infrastruktur kaum bis gar nicht zusätzlich.

Abschluss

Durch die Schichtung Ihrer F5- und NGINX-Load Balancer können Sie die Markteinführungsgeschwindigkeit steigern, ohne dabei Abstriche bei der Sicherheit oder Zuverlässigkeit zu machen.

Mit diesem Ansatz können I&O-Teams die Front-End-Infrastruktur von F5 beibehalten, um erweiterte Application für die große Anzahl unternehmenskritischer Apps bereitzustellen, die geschützt und skaliert werden müssen. Gleichzeitig ermöglichen Sie Ihren DevOps- und Application , Konfigurationsänderungen am Software-Load Balancer direkt zu verwalten und diese häufig als Teil eines CI/CD-Frameworks zu automatisieren.

Mit der kombinierten Lösung erreichen Sie die Agilität und Markteinführungszeitvorteile, die Ihre App-Teams brauchen – ohne auf die Zuverlässigkeit und Sicherheitskontrollen zu verzichten, die Ihre Netzwerkteams benötigen.

Erste Schritte

Tauchen Sie tief ein

Erfahren Sie mehr über die wichtigsten Funktionen des NGINX Controllers.

Lesen Sie den NGINX-Blog ›

Erhalten Sie Einblicke in die App-Bereitstellung

Erfahren Sie, wie F5 und NGINX Ihnen helfen können, die Kluft zwischen Entwicklung und Betrieb zu überbrücken.

Webinar ansehen ›

Testen Sie NGINX

Holen Sie sich eine kostenlose Testversion und testen Sie NGINX Controller 30 Tage lang.

Testen Sie NGINX kostenlos ›