BLOG | NGINX

API Connectivity Manager hilft Entwicklung und Betrieb bei der besseren Zusammenarbeit

NGINX-Teil-von-F5-horiz-schwarz-Typ-RGB
Rajesh Bavanantham Miniaturbild
Rajesh Bavanantham
Veröffentlicht am 03. November 2022

Cloudnative Anwendungen bestehen aus Dutzenden, Hunderten oder sogar Tausenden von APIs, die Microservices miteinander verbinden. Zusammen bieten diese Dienste und APIs die Ausfallsicherheit, Skalierbarkeit und Flexibilität, die das Herzstück cloudnativer Anwendungen bilden.

Heute werden die zugrunde liegenden APIs und Mikrodienste häufig von weltweit verteilten Teams entwickelt, die mit einem gewissen Maß an Autonomie und Unabhängigkeit arbeiten müssen, um die Funktionen zeitnah auf den Markt zu bringen.

Gleichzeitig sind Platform-Ops -Teams dafür verantwortlich, die allgemeine Zuverlässigkeit und Sicherheit der Apps und Infrastruktur des Unternehmens, einschließlich der zugrunde liegenden APIs, sicherzustellen. Sie benötigen Einblick in den API-Verkehr und die Möglichkeit, globale Leitplanken festzulegen, um einheitliche Sicherheit und Compliance zu gewährleisten – und gleichzeitig eine hervorragende API-Entwicklererfahrung zu bieten.

Zwar können die Interessen dieser beiden Gruppen im Konflikt stehen, wir glauben jedoch nicht, dass dies unvermeidlich ist. Wir haben den API Connectivity Manager als Teil der F5 NGINX Management Suite entwickelt, um es Platform-Ops-Teams gleichzeitig zu ermöglichen, für Sicherheit und einen reibungslosen Ablauf zu sorgen und API-Entwicklern die einfache Erstellung und Veröffentlichung neuer Funktionen zu ermöglichen.

Erstellen einer Architektur zur Unterstützung der API-Konnektivität

Als Verwaltungsebene der nächsten Generation ist der API Connectivity Manager darauf ausgelegt, die Leistungsfähigkeit von NGINX Plus als API-Gateway zu realisieren und zu erweitern. Wenn Sie NGINX in der Vergangenheit verwendet haben, sind Sie mit der Skalierbarkeit, Zuverlässigkeit, Flexibilität und Leistung von NGINX als API-Gateway vertraut.

Bei der Entwicklung des API Connectivity Managers haben wir eine neue Architektur entwickelt, die eine bessere Zusammenarbeit zwischen Platform-Ops-Teams und Entwicklern ermöglicht. Es verwendet die folgenden branchenüblichen Begriffe für seine Komponenten (einige davon unterscheiden sich von den Namen, die erfahrenen NGINX-Benutzern geläufig sind):

  • Arbeitsbereich – Eine isolierte Sammlung von Infrastruktur für die dedizierte Verwaltung und Nutzung einer einzelnen Geschäftseinheit oder eines Teams; umfasst normalerweise mehrere Umgebungen
  • Umgebung – Eine logische Sammlung von NGINX Plus-Instanzen (Clustern), die als API-Gateways oder Entwicklerportale für eine bestimmte Phase des Anwendungslebenszyklus fungieren, z. B. Entwicklung, Test oder Produktion.
  • API Gateway Proxy Cluster – Eine logische Darstellung des NGINX API-Gateways, das NGINX Plus-Instanzen gruppiert und den Status zwischen ihnen synchronisiert
  • API-Proxy – Eine Darstellung einer veröffentlichten Instanz einer API und umfasst Routing, Versionierung und andere Richtlinien
  • Richtlinien – Eine globale oder lokale Abstraktion zum Definieren spezifischer Funktionen des API-Proxys wie Verkehrsstabilität, Sicherheit oder Servicequalität

Das folgende Diagramm veranschaulicht, wie die Komponenten in einem Arbeitsbereich verschachtelt sind:

Diese logische Hierarchie ermöglicht eine Vielzahl wichtiger Anwendungsfälle, die die unternehmensweite API-Konnektivität unterstützen. Beispielsweise können Workspaces mehrere Infrastrukturtypen integrieren (z. B. öffentliche Cloud und vor Ort), sodass Teams auf beide zugreifen können und Infrastrukturbesitzer Einblick in den API-Verkehr in beiden Umgebungen erhalten.

Wir werden uns die Architekturkomponenten in zukünftigen Beiträgen genauer ansehen. Sehen wir uns zunächst an, wie API Connectivity Manager den verschiedenen Personas dient, die an der API-Entwicklung und -Bereitstellung beteiligt sind.

API Connectivity Manager für Platform Ops

Das Platform Ops-Team ist für den Aufbau und die Verwaltung des Infrastrukturlebenszyklus für jede Organisation verantwortlich. Sie stellen die Plattform bereit, auf der Entwickler Anwendungen und Dienste erstellen, die Kunden und Partnern dienen. Entwicklungsteams sind häufig dezentralisiert, arbeiten in mehreren Umgebungen und berichten an unterschiedliche Geschäftsbereiche. Die Anforderungen dieser verteilten Gruppen und Umgebungen zu erfüllen und gleichzeitig unternehmensweite Standards einzuhalten, ist eine der größten Herausforderungen, vor denen Platform-Ops-Teams heute stehen.

API Connectivity Manager bietet innovative Möglichkeiten zur Trennung der Teams und ihrer Vorgänge unter Verwendung von Arbeitsbereichen als logische Grenze. Darüber hinaus können Platform-Ops-Teams den Lebenszyklus der Infrastruktur verwalten, ohne die Teams zu behindern, die APIs erstellen und bereitstellen. API Connectivity Manager verfügt über einen integrierten Satz globaler Standardrichtlinien, um grundlegende Sicherheit und Konfiguration für NGINX Plus API-Gateways und Entwicklerportale bereitzustellen. Platform-Ops-Teams können dann ergänzende globale Richtlinien konfigurieren, um optional mTLS anzufordern, Protokollformate zu konfigurieren oder Proxy-Header zu standardisieren.

Die globale Richtlinie erzwingt Einheitlichkeit und sorgt für Konsistenz bei den APIs, die im gemeinsam genutzten API-Gateway-Cluster bereitgestellt werden. API Connectivity Manager bietet den Organisationen auch die Chance, dezentralisierte Datenebenencluster auszuführen, um die Stellen, an denen die einzelnen Teams oder Geschäftsbereiche ihre APIs bereitstellen, physisch zu trennen.

Diagramm, das zeigt, wie API Connectivity Manager es mehreren Gruppen ermöglicht, ihre eigenen Arbeitsbereiche und Umgebungen zu verwalten

In einem nachfolgenden Blog untersuchen wir, wie Platform Ops-Teams den API Connectivity Manager verwenden können, um die API-Sicherheit und -Governance zu gewährleisten und gleichzeitig API-Entwicklern zum Erfolg zu verhelfen.

API Connectivity Manager für Entwickler

Teams aus verschiedenen Geschäftsbereichen besitzen und betreiben ihre eigenen API-Sätze. Sie benötigen Kontrolle über ihre API-Produkte, um ihre Anwendungen und Dienste rechtzeitig auf den Markt zu bringen. Das heißt, sie können es sich nicht leisten, auf die Genehmigung anderer Teams zur Nutzung gemeinsam genutzter Infrastrukturen zu warten. Gleichzeitig müssen „Leitplanken“ vorhanden sein, um zu verhindern, dass sich die Teams gegenseitig auf die Füße treten.

Wie die Platform Ops-Persona erhalten Entwickler als API-Eigentümer ihre eigenen Arbeitsbereiche, die ihre APIs von anderen Teams trennen. API Connectivity Manager stellt auf der Ebene des API-Proxys Richtlinien bereit, mit denen API-Besitzer Einstellungen auf Serviceebene wie Ratenbegrenzungen und zusätzliche Sicherheitsanforderungen konfigurieren können.

Diagramm, das zeigt, wie API-Proxy-Richtlinien für von API-Eigentümern verwaltete Dienste auf einer Grundlage globaler Richtlinien für von Platform Ops verwaltete Infrastrukturen aufbauen.

In einem nachfolgenden Blog untersuchen wir, wie Entwickler mithilfe des API Connectivity Managers die API-Lebenszyklusverwaltung vereinfachen können.

Erste Schritte

Starten Sie eine 30-tägige kostenlose Testversion der NGINX Management Suite , die API Connectivity Manager und Instance Manager umfasst.


„Dieser Blogbeitrag kann auf Produkte verweisen, die nicht mehr verfügbar und/oder nicht mehr unterstützt werden. Die aktuellsten Informationen zu verfügbaren F5 NGINX-Produkten und -Lösungen finden Sie in unserer NGINX-Produktfamilie . NGINX ist jetzt Teil von F5. Alle vorherigen NGINX.com-Links werden auf ähnliche NGINX-Inhalte auf F5.com umgeleitet."