Automatisierung der F5-Anwendungsdienste: Ein praktischer Leitfaden

Einführung

Die Automatisierung der Bereitstellung und des Konfigurationsmanagements von Anwendungsbereitstellungs- und Sicherheitsgeräten ist zu einer nahezu obligatorischen Praxis geworden. Im IDG FutureScape -Bericht 2017 wurden Automatisierung und Multi-Cloud-Management als einige der wichtigsten Initiativen eingestuft, die sich bis 2021 auf Unternehmen auswirken werden. Durch Automatisierung werden Skalierbarkeit, Zuverlässigkeit und Integration bei der Bereitstellung der wesentlichen Sicherheits-, Optimierungs- und Verfügbarkeitsdienste erreicht, die Anwendungen benötigen. Zudem wird ihre Bereitstellung zu einem Bestandteil der orchestrierten Build-, Test- und Bereitstellungs-Workflows, die sich zum dominierenden Modell der Anwendungsbereitstellung entwickeln.

Selbst die einfache Automatisierung grundlegender Aufgaben, wie das Hinzufügen neuer virtueller Server oder Poolmitglieder, kann dazu führen, dass der Betrieb den Anwendungsbesitzern oder anderen automatisierten Systemen Self-Service-Funktionen bietet und Zeit für produktivere Arbeiten frei wird, beispielsweise für die Entwicklung der nächsten Generation von Automatisierungstools.

Der Automatisierungsbedarf wird noch wichtiger, wenn ein Unternehmen beginnt, für die Bereitstellung von IT-Diensten mehrere Cloud-Plattformen einzuführen. Wenn Sie versuchen, Dienste an mehreren Standorten mit unterschiedlichen Plattformeigenschaften bereitzustellen, kann die Automatisierung dazu beitragen, den erhöhten Betriebsaufwand zu reduzieren und Fehler aufgrund der mangelnden Vertrautheit mit neuen Plattformen zu verringern.

Aber wie und was soll automatisiert werden? Mit unterschiedlichen Betriebsmodellen, Schnittstellen und Sprachen kann Automatisierungssoftware auf einer einzelnen Geräteebene oder als komplexeres Multisystemtool arbeiten. Alle Infrastructure-as-a-Service (IaaS)-Cloud-Plattformen bieten eigene native Tools zum Bereitstellen virtueller Infrastrukturen und Dienste. Darüber hinaus bietet F5 eine Reihe von Schnittstellen und Orchestrierungsoptionen. Diese große Auswahl an Tools und Optionen bietet Ihnen zwar die Möglichkeit, die Automatisierung so vorzunehmen, wie es für Ihr Unternehmen am besten geeignet ist, doch die Auswahl des richtigen Tools kann eine gewaltige Aufgabe sein – und es besteht ein reales Risiko der Komplexität und Tool-Vermehrung.

In diesem Dokument geben wir einen Überblick über die Möglichkeiten zur Automatisierung der Bereitstellung, Verwaltung und Konfiguration von F5 BIG-IP-Geräten (sowohl physisch als auch virtuell) sowie einige Ratschläge zur Auswahl des für Ihr Unternehmen geeigneten Pfads.

Automatisierung: Einige wichtige Überlegungen

Das Spektrum der Automatisierung

Die Automatisierung umfasst eine Reihe von Aktivitäten. Am einen Ende des Spektrums steht die Entwicklung einfacher Skripte, die in Bash, TMSH, Python oder anderen Sprachen geschrieben werden können und lokal ausgeführt werden können, um manuelle Konfigurationsaktivitäten zu beschleunigen. Am anderen Ende des Spektrums steht ein vollständiges „Infrastructure-as-Code“-System, das Quellcodeverwaltung, Workflow-Orchestratoren und (möglicherweise) mehrere Automatisierungstools kombiniert, um ein System zu erstellen, in dem die Konfiguration der Infrastruktur durch Textdateien in einem Repository definiert und mit diesen geändert wird. Zwischen diesen beiden Extremen liegen eine Reihe verschiedener Optionen, die Ihnen bei der Verwaltung der Bereitstellung und Konfiguration einer BIG-IP-Plattform helfen.

Einfache Darstellung, warum die Integration von Infrastructure as Code und Orchestration Tool die beste Lösung ist, wie im Blog beschrieben.

Veränderlich vs. unveränderlich

Die meisten aktuellen BIG-IP-Bereitstellungen können als veränderbar betrachtet werden, was bedeutet, dass wir davon ausgehen können, dass sich ihre Konfiguration im Laufe der Zeit ändert. Dies liegt daran, dass die BIG-IP-Plattform meist als Multi-Tenant-Gerät eingesetzt wird, das Dienste für mehrere Anwendungen bereitstellt. Wenn neue Anwendungen eingesetzt werden oder die vorhandenen Anwendungen skaliert werden oder zusätzliche Dienste erfordern, wird die Konfiguration des BIG-IP entsprechend aktualisiert. Mithilfe dieser Bereitstellungsmethode können Infrastrukturteams eine Reihe zentralisierter Infrastrukturen verwalten, die von einer gemeinsamen Plattform aus Dienste für Anwendungen bereitstellen.

Manchmal werden BIG-IP-Plattformen jedoch als Teil eines diskreten Anwendungsstapels eingesetzt, wobei die Dienste einer bestimmten BIG-IP an eine bestimmte Anwendung oder einen bestimmten Dienst gebunden sind. In dieser Situation könnten wir die BIG-IP-Konfiguration als unveränderlich behandeln. Das heißt, die Konfiguration wird beim Booten oder als Teil des Software-Images installiert und während des Lebenszyklus der BIG-IP-Instanz nicht geändert. Konfigurationsänderungen werden durch Ändern des Software-Images oder des Start-Agent-Skriptinhalts und anschließendes erneutes Bereitstellen vorgenommen. Dieses Modell wird oft als „Nuke and Pave“ bezeichnet. Zwar ist dieses Bereitstellungsmodell insgesamt weniger verbreitet, doch die Verfügbarkeit neuer BIG-IP-Lizenzmodelle zur Unterstützung von Pro-App-Instanzen, verbesserter Lizenzierungstools und Tools wie F5-Cloud-Libs (eine Reihe von Node.js-Skripten und -Bibliotheken, die Ihnen bei der Integration von BIG-IP in eine Cloud helfen sollen) macht dieses Bereitstellungsmodell zu einer brauchbaren Option für Unternehmen, die für eine Anwendung einen eng gebundenen, isolierten Stapel aus Code und Infrastruktur benötigen.

Grafische Darstellung unveränderlicher und veränderlicher Infrastruktur

Deklarativ vs. Imperativ

Es gibt zwei konzeptionelle Modelle für die Bereitstellung von Automatisierungsschnittstellen für Verbraucher. Die gängigsten Automatisierungsschemata der „ersten Welle“ tendieren zu einem imperativen Modell. Bei imperativen Automatisierungsmodellen muss der Automatisierungsnutzer normalerweise wissen, was er erreichen möchte und welche konkreten Schritte (normalerweise durch API-Aufrufe) erforderlich sind, um dies zu erreichen. Dadurch wird dem Verbraucher häufig die Last auferlegt, sich mit den Konfigurationsdetails erweiterter Dienste auseinanderzusetzen und die zusätzliche Komplexität und den Aufwand für die Integration der Dienste in Automatisierungstools zu tragen. Es ist so, als ob Sie nach einem Sandwich fragen und dabei jeden einzelnen Arbeitsgang angeben, der für die Herstellung erforderlich ist, statt einfach nach einem Sandwich zu fragen und zu erwarten, dass der Sandwichmacher weiß, welche Arbeitsgänge in welcher Reihenfolge ausgeführt werden müssen, um es herzustellen.

Im Gegensatz dazu ermöglicht eine deklarative Schnittstelle Verbrauchern (Menschen oder Maschinen), Dienste zu erstellen, indem sie nach dem fragen, was sie möchten. Detaillierte Kenntnisse aller erforderlichen Schritte sind nicht erforderlich, da das Automatisierungsziel über vorkonfigurierte Workflows oder Servicevorlagen verfügt, um die Konfiguration basierend auf den erforderlichen Ergebnissen zu erstellen. Während die Ersteinrichtung einer deklarativen Schnittstelle etwas komplexer ist, wird diese Komplexität durch die einfache Bedienung ausgeglichen, sobald geeignete Dienstvorlagen erstellt wurden. Daher ist es im Allgemeinen der bevorzugte Mechanismus zum Aufbau von Automatisierungssystemen.

Direkt oder über ein Management-Tool

Darüber hinaus müssen Sie entscheiden, ob Automatisierungs-API-Aufrufe von Drittanbieter-Tools direkt an das zu ändernde Gerät oder über ein zusätzliches Verwaltungstool erfolgen sollen. Verwaltungstools können Vorgänge abstrahieren und vereinfachen und bieten möglicherweise zusätzliche Kontroll- und Protokollierungsebenen im Vergleich zu einer direkten Verbindung zur verwalteten Entität. Sie müssen dieses Tool jedoch unterstützen, um sicherzustellen, dass Ihre Verwaltungsebenen in Situationen hochverfügbar sind, in denen die Möglichkeit, schnell Änderungen vorzunehmen, von entscheidender Bedeutung ist.

Grafische Darstellung von „Via Management Server“ im Vergleich zu „Direct“

API, Start-Agent oder CLI?

BIG-IP-Geräte werden am häufigsten über die REST-API automatisiert, die den Großteil der BIG-IP-Funktionalität über ein dokumentiertes Schema bereitstellt. Die von F5 bereitgestellten Module für Automatisierungstools wie Ansible nutzen die REST-API in großem Umfang. Neben der Bereitstellung einer imperativen Schnittstelle pro Einstellung können REST-API-Aufrufe zum Starten von F5 -iApp-Vorlagen verwendet werden, wobei die Werte zum Konfigurieren des iApp-Dienstes als JSON-Nutzlast im API-Aufruf übergeben werden. Durch die zusätzliche iControl LX -Funktion ist auch die Erstellung eines benutzerdefinierten API-Endpunkts möglich, der einen mehrstufigen Vorgang aus einem einzigen API-Aufruf heraus ausführen kann.

Eine weitere gängige Methode zum Automatisieren der BIG-IP-Konfiguration ist die Verwendung von Start-Agenten, die beim Start ausgeführt werden und externe Informationen zum Konfigurieren der BIG-IP-Plattform abrufen können. Start-Agenten werden häufig verwendet, um die Erstkonfiguration zum „Onboarden“ von Geräten durchzuführen und können zusätzliche Skripts und Konfigurationsdateien von Websites Dritter wie GitHub oder Ihrem eigenen Repository abrufen. Mithilfe von Start-Agenten lässt sich auch eine BIG-IP-Plattform vollständig konfigurieren, insbesondere wenn Sie sich für eine feste Konfiguration pro Anwendung entschieden haben.

Die gebräuchlichste Startkonfiguration ist „cloud-init“ , die in allen BIG-IP VE-Images aktiviert ist (außer in Microsoft Azure), sich jedoch am besten für die Verwendung in AWS- und OpenStack-Bereitstellungen eignet. Neben Cloud-Init stellt F5 eine Reihe von Cloud-Startbibliotheken bereit, die bei der Konfiguration von BIG-IP beim Booten helfen.

Wenn Sie Start-Agenten verwenden, um eine Plattform nach dem Booten zu konfigurieren, achten Sie sorgfältig auf die Fehlerbewältigung, wenn externe Quellen verwendet werden, insbesondere wenn eine Instanz als Teil eines Skalierungsereignisses gestartet werden könnte. Wie verhält sich das System, wenn die externen Ressourcen nicht verfügbar sind? Werden weitere „Zombie“-Geräte entwickelt, um mit der Nachfrage Schritt zu halten?

In einigen Fällen können sich Automatisierungssysteme wie Benutzer verhalten und CLI-Befehle ausführen. Dadurch können gelegentlich einige Probleme gelöst werden, bei denen API-Aufrufe möglicherweise nicht vollständig ausgeführt werden. Im Allgemeinen ist dies jedoch aufgrund der Supportschwierigkeiten und der Instabilität der Lösung die Methode der letzten Wahl.

Vorlagen und Playbooks

Mithilfe von Vorlagen und Playbooks können automatisierte Bereitstellungen erstellt und Infrastrukturen mit einem gewissen Grad an Standardisierung aufgebaut werden. Der entsprechende Grad an Standardisierung macht Ihre Infrastruktur robuster und wartungsfreundlicher. Gut erstellte Vorlagen bieten eine deklarative Schnittstelle, bei der die anfordernde Entität (Benutzer oder Maschine) nur die benötigten Eigenschaften kennen muss, nicht aber die Implementierungsdetails. Die Bereitstellung ausschließlich über Vorlagen und die Behebung von Problemen nur durch die Korrektur von Vorlagen kann zu einer höheren Servicequalität führen, da Probleme im Allgemeinen einmal behoben und die Dienste anschließend anhand der neuen Vorlage erneut bereitgestellt werden.

Plattformintegrationen

Tools zur Plattformintegration binden die Konfiguration von BIG-IP-Diensten in Computerplattformen wie private Clouds oder Containerverwaltungssysteme ein. Die Mechanismen variieren zwischen Plattformen und Implementierungen, lassen sich aber im Allgemeinen in drei Modelle einteilen:

Substitution von F5-Diensten in ein bestehendes Plattformkonstrukt
In diesem Modell werden F5-Dienste unter Verwendung einer vorhandenen Plattformkonstruktion eingefügt, z. B. indem F5 als OpenShift Container Platform Router oder mit dem OpenStack Load Balancing as a Service (LBaaS) -System verwendet wird. Die Verwendung dieser Mechanismen erfordert nur geringe Änderungen der Betriebsabläufe, da zum Konfigurieren der Dienste eine plattformeigene Schnittstelle verwendet wird und der mitgelieferte Treiber und die andere Software die Plattformkonfigurationsanweisungen nahtlos in eine F5-Konfiguration übersetzen. Bedenken Sie jedoch, dass nur die Funktionen problemlos bereitgestellt werden können, die über die plattformeigene Schnittstelle verfügbar sind.

Abonnieren von Plattformereignissen

Eine weitere gängige Integrationsmethode besteht darin, dass ein Softwaremodul (beispielsweise der Container Connector für Kubernetes und Mesos) Ereignisse innerhalb einer Plattform abonniert und dann eine Konfiguration basierend auf den Ereignissen ändert. Sie können auswählen, welche Ereignisse und Dienste bereitgestellt werden sollen, indem Sie die zu wartenden Anwendungen markieren oder kennzeichnen und die Connector-Software so konfigurieren, dass sie nach Ereignissen mit den erforderlichen Markierungen sucht.

Integration mit Plattformverwaltungstools 

Viele private Cloud-Plattformen verfügen über Verwaltungssysteme, die auf Automatisierung ausgelegt sind. VMware verfügt beispielsweise über mehrere Verwaltungs- und Integrationstools, darunter vRealize Orchestrator (vRO), für den es ein Drittanbieter-Plug-In für die BIG-IP-Konfiguration gibt. Weitere Beispiele sind das Plug-In für das OpenStack HEAT -Vorlagensystem.

Diensterkennung

Obwohl es sich bei der Diensterkennung nicht um eine vollständige Automatisierungslösung handelt, handelt es sich dabei um eine einfache und leistungsstarke Möglichkeit, BIG-IP-Konfigurationen in Änderungen in der Umgebung zu integrieren. Die Diensterkennung funktioniert durch regelmäßige Abfragen des Cloud-Systems über die API, um eine Liste der Ressourcen abzurufen und die BIG-IP-Konfiguration entsprechend zu ändern. Dies ist insbesondere in Umgebungen nützlich, in denen Ressourcen in automatisch skalierten Gruppen konfiguriert sind, da für die Skalierung der Back-End-Rechenressource der Load Balancer über die neuen Ressourcen informiert sein muss. Service-Discovery-Komponenten werden mit F5-Cloud-Auto-Scale-Lösungen für AWS und Azure bereitgestellt.

Gängige Automatisierungstools: Ein Ressourcenleitfaden 

Obwohl wir nicht jedes erdenkliche Automatisierungs- oder Orchestrierungstool abdecken können, finden Sie unten eine Liste der am häufigsten von F5-Kunden genutzten Tools, Anwendungsfälle und Funktionen.

Sprachintegrationen

Sprache

Status

Beispiele und Quelle

Python

F5 hat mitgewirkt

https://github.com/F5Networks/f5-common-python

Gehen

Vom Benutzer beigetragen

https://github.com/f5devcentral/go-bigip

PowerShell

F5 Unterstützt

https://devcentral.f5.com/wiki/icontrol.powershell.ashx

 

Tools für Konfigurationsmanagement und Infrastrukturautomatisierung

Werkzeug

Status

Beispiele und Quelle

Ansible

F5 hat mitgewirkt

https://github.com/F5Networks/f5-ansible

Terraform

F5 hat mitgewirkt

https://github.com/f5devcentral/terraform-provider-bigip

Marionette

F5 hat mitgewirkt

https://github.com/f5devcentral/f5-puppet

Küchenchef

Vom Benutzer beigetragen

https://github.com/target/f5-bigip-cookbook

SaltStack

Dritte Seite

https://docs.saltstack.com/en/latest/ref/runners/all/salt.runners.f5.html

 

Infrastruktur-Vorlagensysteme

Plattform

Status

Beispiele und Quelle

AWS

F5 Unterstützt2

https://github.com/F5Networks/f5-aws-cloudformation

Azurblau

F5 Unterstützt1

https://github.com/F5Networks/f5-azure-arm-templates

Google

F5 Unterstützt1

https://github.com/F5Networks/f5-google-gdm-templates

OpenStack

F5 Unterstützt1

https://github.com/F5Networks/f5-openstack-hot

 

Startup-Agenten und Cloud-Skripte

Cloud-Init
https://devcentral.f5.com/articles/f5-in-aws-part-5-cloud-init-single-nic-and-scale-out-of-big-ip-in-v12-21476

Cloud-Bibliotheken
https://github.com/F5Networks/f5-cloud-libs

Plattformintegrationen
Container-Management-Plattformen

Plattform

Status

Beispiele und Quelle

Kubernetes

F5 Unterstützt1

https://github.com/F5Networks/k8s-bigip-ctlr

Marathon

F5 Unterstützt1

https://github.com/F5Networks/marathon-bigip-ctlr

CloudFoundry

F5 Unterstützt1

https://github.com/F5Networks/cf-bigip-ctlr

 

Private Cloud-Plattformen

Plattform

Status

Beispiele und Quelle

OpenStack (LBaaS)

F5 Unterstützt1

https://github.com/F5Networks/f5-openstack-lbaasv2-driver

OpenStack (Heat)

F5 Unterstützt1

https://github.com/F5Networks/f5-openstack-hot

VMWare (vRO)

Dritte Seite

https://bluemedora.com/products/f5/big-ip-for-vrealize-operations/

Ein Hinweis zu Orchestrierungs- und Workflow-Tools 

Die oben genannten Tools und Integrationen stellen automatisierte Möglichkeiten zum Bereitstellen und Konfigurieren der BIG-IP-Plattform dar, um Anwendungsverfügbarkeit, Sicherheit und Skalierungsdienste bereitzustellen. So wichtig diese Dienste auch sind, stellen sie nur einen Teil der Bereitstellung einer Full-Stack-Anwendung dar. Um einen vollständigen Anwendungsstapel mit Servern, Daten, kompiliertem Anwendungscode und Infrastruktur auf koordinierte und getestete Weise zu erstellen, ist mehr als ein einfaches Automatisierungstool erforderlich.

Sie benötigen ein Orchestrierungstool auf höherer Ebene mit zugehörigen Workflows und Integrationen mit einer Reihe von Automatisierungssystemen. Diese Tools werden am häufigsten in Arbeitspraktiken zur kontinuierlichen Integration/kontinuierlichen Bereitstellung (CI/CD) verwendet, für die bei allen praktischen Implementierungen eine Automatisierung erforderlich ist. Obwohl es eine Reihe von Orchestrierungstools gibt, ist Jenkins wahrscheinlich das am weitesten verbreitete Tool. Außerdem sind Beispiel-Workflows verfügbar, die zeigen, wie Sie mit Jenkins, F5 und Ansible F5-Infrastructure-as-Code-Funktionen in einen CI/CD-Workflow integrieren können. Im Allgemeinen arbeitet das Orchestrierungstool jedoch über eines der Tools zur Konfigurationsautomatisierung, um tatsächlich Änderungen an den Bereitstellungsdiensten vorzunehmen.

Lizenzierung

Da für die Funktionsfähigkeit von BIG-IP-Plattformen eine Lizenzierung erforderlich ist, ist es hilfreich, die Lizenzierung in den kritischen Pfad der Automatisierung einzubeziehen. In hochdynamischen Umgebungen, in denen virtuelle BIG-IP-Geräte möglicherweise schnell hoch- oder herunterskaliert oder zu Test- und Entwicklungszwecken erstellt werden müssen, sollten Lizenzierungsmodelle sorgfältig überlegt werden.

Eine Möglichkeit in der öffentlichen Cloud besteht darin, Utility-Billing-Versionen von BIG-IP zu verwenden (verfügbar über Cloud-Marktplätze). Für die Abrechnung von Versorgungsleistungen erfolgt eine Selbstlizenzierung, und die Kosten werden über den Cloud-Anbieter auf Pay-as-you-use- oder zeitabhängiger Basis abgerechnet.

Eine weitere Möglichkeit besteht darin, Pools wiederverwendbarer Lizenzen zu verwenden, die im Abonnement (oder unbefristet) erworben wurden, zusammen mit dem F5 BIG-IQ License Manager , mit dem Sie Lizenzen aus einem Pool zuweisen und widerrufen können.

Sie können die Lizenzierungsschritte durch Start-Agenten und API-Aufrufe automatisieren, was einen ausgehenden Internetzugriff auf den F5-Lizenzserver erfordert (auch bei Utility-Lizenzen in Cloud-Plattformen).

Was wann verwenden?

Abhängig von Ihrer Organisation kann die Auswahl der richtigen Automatisierungs- und Orchestrierungstools sehr einfach oder eine schwierige Aufgabe sein. Dies ist einfach, wenn Sie bereits ein Tool oder eine Methodik für andere Komponenten übernommen haben und BIG-IP nur in das System integrieren müssen. Auch ohne Integration in ein bestimmtes Tool ist die Integration von BIG-IP in ein vorhandenes Automatisierungstool dank der umfangreichen iControl REST API in Kombination mit den iControl LX-Funktionen und Cloud-Init relativ unkompliziert (insbesondere in Kombination mit iApp-Vorlagen, mit denen sich sogar komplexe Konfigurationen mit einem einzigen API-Aufruf erstellen lassen).

Wenn Sie jedoch bei Null anfangen, können die Dinge komplexer sein. Wie bei der Auswahl jeder anderen Lösung sollte das Verständnis Ihrer Anforderungen an erster Stelle stehen. Obwohl dieses Dokument keine Liste Ihrer Anforderungen für Sie erstellen kann, finden Sie hier eine Reihe von Fragen und Empfehlungen, die Ihnen bei der Beurteilung helfen sollen.

  • Automatisierungsmodell: Die Interaktion mit einem deklarativen Modell ist für Ihre Orchestrierungsverbraucher wesentlich einfacher. Die Verbraucher müssen lediglich wissen, was sie wollen, und nicht alle Verfahrensschritte durchlaufen, um dorthin zu gelangen.
  • Mögliche Plattformen und Umgebungen: An diesem Punkt scheint es unausweichlich, davon auszugehen, dass Container und eine Reihe von Cloud-Plattformen einen zentralen Teil der Anwendungsinfrastruktur darstellen werden – planen Sie entsprechend.
  • Fähigkeiten: Verfügen Sie bereits über Kenntnisse in einigen der zugrunde liegenden Technologien? Bedenken Sie, dass diese Fähigkeiten möglicherweise nicht nur in Ihrer Abteilung, sondern auch im gesamten Unternehmen vorhanden sind. In diesem Fall ist es möglicherweise sinnvoll, ein Tool auszuwählen, das eine Sprache verwendet, die in Ihrem Unternehmen bereits eingeführt ist.
  • Supportfähigkeit: Bauen Sie nur Systeme, die Sie unterstützen können. Dies mag zwar offensichtlich erscheinen, doch ein Schlüssel zum Erfolg liegt darin, den Grad der Komplexität zu wählen, den Sie in Ihrem Unternehmen umsetzen können, sodass Sie die Vorteile der Automatisierung maximieren, ohne einen übermäßigen Betriebsaufwand zu verursachen.

F5-Private-Cloud-Lösungspakete 

Mit den Private-Cloud-Lösungspaketen von F5 können Sie auf einfache Weise die Technologie und Dienste erwerben, die zum Bereitstellen von F5-Anwendungsdiensten in zahlreichen Private-Cloud-Umgebungen erforderlich sind. Die Pakete bündeln Software, Hardware und professionelle Dienste, um eine schlüsselfertige, validierte Lösung für eine Reihe privater Cloud-Plattformen zu erstellen. Durch die Verwendung privater Cloud-Lösungspakete können Sie eine Modellbereitstellung erhalten, die auf andere Plattformen repliziert werden kann, um einen einheitlicheren und konsistenteren Satz von Anwendungsbereitstellungs- und Sicherheitsdiensten über mehrere Umgebungen hinweg zu erstellen.

Abschluss

Eine stärkere IT-Automatisierung ist unvermeidlich. Durch einen strategischen Ansatz bei der Bereitstellung wichtiger Anwendungsbereitstellungs- und Sicherheitsdienste stellen Sie sicher, dass die von Ihrem Unternehmen eingesetzten Anwendungen sicher und verfügbar bleiben. Automatisierung kann auch dazu beitragen, Ihren Betriebsaufwand zu reduzieren, insbesondere wenn Sie auf mehreren Plattformen und in öffentlichen Clouds arbeiten.

Die Auswahl des richtigen Automatisierungssystems kann eine Herausforderung sein und sollte idealerweise in einer gemeinsamen und ganzheitlichen Anstrengung erfolgen, wobei die Ihnen zur Verfügung stehenden Fähigkeiten sowie die Supportfähigkeit des Systems berücksichtigt werden sollten. Für welche Lösung Sie sich auch entscheiden, Sie können sicher sein, dass Ihnen die BIG-IP-Plattform und das Know-how von F5 zur Verfügung stehen, um Ihnen dabei zu helfen, die unternehmenstauglichen Dienste bereitzustellen, auf die Ihre Anwendungen angewiesen sind – ganz gleich, wo diese bereitgestellt werden.

Veröffentlicht am 09. Februar 2018
  • Auf Facebook teilen
  • Teilen mit X
  • Auf Linkedin teilen
  • Teilen per E-Mail
  • Teilen über AddThis

Verbinden mit F5

F5 Labs

Die neuesten Erkenntnisse im Bereich Anwendungsbedrohungsinformationen.

DevCentral

Die F5-Community für Diskussionsforen und Expertenartikel.

F5-Newsroom

Neuigkeiten, F5-Blogs und mehr.