BLOG | NGINX

5 Möglichkeiten zur Bekämpfung des API-Wildwuchses (und warum Sie sich dafür interessieren sollten)

NGINX-Teil-von-F5-horiz-schwarz-Typ-RGB
Rajesh Bavanantham Miniaturbild
Rajesh Bavanantham
Veröffentlicht am 17. August 2022

Dies ist der erste Beitrag einer zweiteiligen Reihe zum API Connectivity Manager:

APIs sind das Bindegewebe des modernen Internets und verbinden Daten vom Edge zurück zur Cloud und zu lokalen Rechenzentren. Laut dem State of Application Strategy Report 2021 von F5 ist die Nutzung von APIs die beliebteste der verschiedenen Methoden, die Unternehmen zur Modernisierung einsetzen:

  • 58 % der Organisationen fügen eine API-Ebene hinzu, um moderne Benutzeroberflächen zu ermöglichen
  • 51 % fügen moderne Anwendungskomponenten hinzu (z. B. Kubernetes)
  • 47 % führen ein Refactoring durch (Änderung des Anwendungscodes selbst)
  • 40 % migrieren in die öffentliche Cloud (Lift and Shift), ohne zu modernisieren

In einer API-gesteuerten Wirtschaft müssen APIs 100 % zuverlässig sein. Doch mit der Skalierung von Unternehmen und Anwendungen vervielfacht sich die betriebliche Komplexität. Cloudnative Anwendungen sind von Natur aus zunehmend verteilt und dezentralisiert – sie bestehen aus Dutzenden, Hunderten oder sogar Tausenden von APIs, die in der Cloud, vor Ort und in Edge-Umgebungen bereitgestellt werden.

Aktuelle Untersuchungen des CTO-Büros von F5 haben ergeben, dass die kontinuierliche API-Ausbreitung eine erhebliche Bedrohung für Unternehmen darstellt, die eine digitale Transformation durchlaufen. Aber was bedeutet das?

Was ist API-Sprawl?

Mit API Sprawl werden zwei miteinander verknüpfte Herausforderungen beschrieben, die bei der Umsetzung der digitalen Transformation in Unternehmen auftreten: das exponentielle Wachstum der Anzahl von APIs und die physische Verteilung von APIs auf mehrere Architekturen und Teams.

Die vier Hauptursachen für die Ausbreitung von APIs sind:

  • Hybride Infrastruktur – Heute arbeiten 81 % der Unternehmen mit drei oder mehr Architekturen , darunter öffentliche Clouds, lokale Rechenzentren und Edge-Infrastrukturen.
  • Microservices-Architekturen – Die zunehmende Nutzung von Microservices-Architekturen führt zu einer Verbreitung von API-Endpunkten, wenn neue Dienste online gehen.
  • Kontinuierliche Softwarebereitstellung – Entwickler können innerhalb kurzer Zeit Dutzende von APIs oder viele Versionen einer einzelnen API produzieren.
  • Aufgegebene APIs – Wenn Entwickler sich der Unterstützung und Arbeit an anderen Projekten zuwenden, hören sie auf, die von ihnen erstellten APIs zu verwalten und zu warten.

API-Wildwuchs stellt eine erhebliche Bedrohung dar

Viele Unternehmen erkennen die API-Ausbreitung noch nicht als großes Problem an – aber das ist sie . Unternehmen, die die Ursachen der API-Ausbreitung verstehen und angehen, werden im nächsten Jahrzehnt erfolgreich sein.

Die Ausbreitung von APIs bringt für Unternehmen erhebliche betriebliche und sicherheitsrelevante Herausforderungen mit sich. Angesichts der zunehmenden Verbreitung von API-Endpunkten in zahlreichen Teams und Umgebungen wird die Sicherung und Verwaltung von APIs zu einer enormen Herausforderung. Für Unternehmen führt die zunehmende Verbreitung von APIs häufig zu versteckten Kosten – geringere Entwicklerproduktivität, erhöhter Nacharbeit, langsamere Überprüfungen –, die erst leicht messbar sind, wenn es zu spät ist.

Zu den wichtigsten Herausforderungen der API-Ausbreitung gehören:

  • Mangelnde Transparenz – Hybridarchitekturen machen es äußerst schwierig, einen einheitlichen Überblick über API-Verkehr und -Konfigurationen zu erhalten.
  • Keine klare Quelle der Wahrheit – Entwickler haben Schwierigkeiten, APIs und aktuelle Dokumentation zu finden
  • Geringere Zuverlässigkeit – Fehlkonfigurationen treten häufiger auf und führen zu Ausfällen
  • Erhöhte Sicherheitsbedrohungen – Ungesicherte API-Endpunkte sind leichte Ziele für Angriffe

Wie können Sie den API-Wildwuchs bekämpfen?

Der erste Schritt beim Aufbau einer widerstandsfähigen API-Infrastruktur besteht darin, die API-Ausbreitung mithilfe einer ganzheitlichen API-Strategie in den Griff zu bekommen, die Best Practices rund um dauerhaftes API-Eigentum und einen zentralen API- oder Servicekatalog umfasst. Als Nächstes können Sie die API-Governance überlagern, um das API-Lebenszyklusmanagement auf praktische und skalierbare Weise zu optimieren.

Bei NGINX haben wir eine Management-Plane-Lösung entwickelt, um die Komplexität der API-Verwaltung zu reduzieren. API Connectivity Manager , Teil der F5 NGINX Management Suite , bietet eine einzige Schnittstelle zum Verbinden, Verwalten und Sichern Ihrer APIs, unabhängig davon, wo sie sich befinden oder wer sie erstellt.

API Connectivity Manager unterstützt Sie bei der Umsetzung der fünf Taktiken, die für die Bekämpfung der API-Ausbreitung und die Verwaltung von APIs im großen Maßstab entscheidend sind:

Taktik Nr. 1: Implementieren Sie eine API-Governance-Strategie

Durch die zentrale Verwaltung und Steuerung lassen sich APIs innerhalb einer einzelnen Architektur oder eines Clusters leichter erkennen, verbinden und sichern. Die zunehmende Ausbreitung von APIs zwingt Sie dazu, Ihre Denkweise anzupassen – von einem rein hierarchischen Modell zu einem verteilten und autonom skalierenden Modell.

So hilft NGINX – Mit API Connectivity Manager können Sie ein flexibles Governance-Modell implementieren, das globale Richtlinien mit feinkörnigen Kontrollen ausgleicht, sodass API-Besitzer lokale Richtlinien verwalten können. Dadurch lässt sich die Markteinführungszeit verkürzen, ohne dass die kontinuierliche Überwachung von Sicherheit und Compliance auf der Strecke bleibt.

Plattform- und Infrastrukturteams können mit globalen Richtlinien für Protokollierung, Fehlerantwortcodes, TLS-Konfiguration und mehr die API-Konsistenz im gesamten Unternehmen sicherstellen. Entwickler, die APIs erstellen und verwalten, behalten die Kontrolle über Richtlinien auf Serviceebene wie Ratenbegrenzung, Authentifizierung und Autorisierung.

Taktik Nr. 2: Erstellen Sie eine einzige zuverlässige Quelle für die API-Erkennung

Angesichts der zunehmenden Anzahl von APIs und der Komplexität von Apps wird es immer schwieriger, herauszufinden und zu verfolgen, welche APIs verfügbar sind und wo sie sich befinden. Wenn APIs in der Infrastruktur eines bestimmten Microservices versteckt und nicht registriert sind, können Teams, die für andere Microservices verantwortlich sind, diese APIs nicht finden und in ihre Projekte integrieren.

Wie NGINX hilft – Mit API Connectivity Manager können Sie Servicekataloge und API-Portale erstellen, in denen Entwickler Ihre APIs entdecken und verwenden können. Ein gutes Entwicklerportal fördert die Nutzung Ihrer APIs, indem es einen zentralen Ort für Informationen zu verfügbaren APIs und deren Verwendung sowie Tools zum Generieren von Anmeldeinformationen bietet.

Taktik Nr. 3: Stellen Sie eine ordnungsgemäße Versionierung und Dokumentation sicher

API-Portale sind ein guter erster Schritt. Probleme entstehen jedoch, wenn sich die API-Spezifikationen während der Entwicklungszyklen ändern. Dies hat zur Folge, dass auch der Remotedienst, der eine API aufruft, geändert werden muss. Dieser Ansatz funktioniert möglicherweise, wenn alle Microservices vom selben Team für dieselbe Anwendung entwickelt werden. Er funktioniert jedoch nicht, wenn APIs zur Verwendung durch Dritte veröffentlicht werden.

Gleichzeitig bereitet die Pflege der Dokumentation den Entwicklern Kopfschmerzen. Nach einem anfänglichen Aktivitätsschub veralten API-Portale häufig und werden zu Geisterstädten mit nicht unterstützten APIs und veralteter Dokumentation. Stakeholder und API-Benutzer sind verloren und frustriert.

Wie NGINX hilft – Mit API Connectivity Manager können Sie die API-Veröffentlichung und -Dokumentation in einen nahtlosen Workflow für API-Entwickler integrieren. API-Besitzer können mithilfe der OpenAPI-Spezifikation gleichzeitig APIs veröffentlichen und Dokumentationen erstellen. Dies spart ihnen Zeit und stellt sicher, dass die Dokumentation für alle aktuell bleibt.

Taktik Nr. 4: Bereitstellung von Metriken und Einblicken in den API-Verkehr

Zu verstehen, wo sich APIs befinden und wie sie konfiguriert sind, ist eine der größten Herausforderungen für Unternehmen. Ohne eine konsistente Ansicht des API-Verkehrs in allen Umgebungen ist die Identifizierung von Leistungsproblemen und Sicherheitsbedrohungen schwierig, wenn nicht gar unmöglich.

So hilft NGINX – Mit API Connectivity Manager können Sie eine einzige Plattform erstellen, die Zugriff auf wichtige Messdaten bietet, die Ihnen dabei helfen, Best Practices durchzusetzen und Leistung und Zuverlässigkeit sicherzustellen. Infrastrukturbesitzer können API-Verkehr und -Konfigurationen überwachen, standardisierte Protokollformate erzwingen und Daten in ihre bevorzugten Überwachungslösungen exportieren.

Taktik Nr. 5: API-Sicherheit im großen Maßstab anwenden

Mehr als 90 % der Unternehmen waren im Jahr 2020 von einem API-Sicherheitsvorfall betroffen . Die Bedrohungsfläche Ihres Unternehmens wächst mit jedem neuen API-Endpunkt, der online geht. Sicherheit kann im großen Maßstab kein Zusatzfeature sein – sie muss in den gesamten Lebenszyklus von der Spezifikation über den Code bis hin zur Bereitstellung integriert sein.

So hilft NGINX – Mit API Connectivity Manager können Sie APIs mit zwei Schlüsselkomponenten für die API-Sicherheit schützen: API-Zugriffskontrolle und API-Schutz. Erzwingen Sie die API-Zugriffskontrolle, indem Sie Authentifizierung und Autorisierung mit JSON Web Tokens (JWTs), API-Schlüsseln oder OAuth2/OpenID Connect verwalten. In den kommenden Monaten wird der API Connectivity Manager Unterstützung für NGINX App Protect WAF hinzufügen, sodass Sie Ihre API-Gateways sichern und sich mit sofort einsatzbereiter Unterstützung für die OWASP API Security Top 10 , Schemavalidierung und mehr gegen allgemeine und erweiterte Bedrohungen verteidigen können.

Beschleunigen Sie die Markteinführung mit dem API Connectivity Manager

Indem Sie die Herausforderungen bewältigen, die die API-Ausbreitung mit sich bringt, können Sie die Komplexität mehrerer Architekturen in einen Wettbewerbsvorteil verwandeln. Mit dem API Connectivity Manager können Sie ein belastbares API-Ökosystem aufbauen, das die Governance im großen Maßstab mit der Geschwindigkeit und Flexibilität unterstützt, die Ihre Entwickler benötigen.

In unserem nächsten Beitrag tauchen wir tief in die Erfahrungen von API-Entwicklern ein und diskutieren Themen wie CI/CD-Integration, Self-Service-Workflows und API-Lebenszyklusmanagement.

Erste Schritte

Starten Sie eine 30-tägige kostenlose Testversion der NGINX Management Suite , die API Connectivity Manager und Instance Manager umfasst.

Verwandte Ressourcen


„Dieser Blogbeitrag kann auf Produkte verweisen, die nicht mehr verfügbar und/oder nicht mehr unterstützt werden. Die aktuellsten Informationen zu verfügbaren F5 NGINX-Produkten und -Lösungen finden Sie in unserer NGINX-Produktfamilie . NGINX ist jetzt Teil von F5. Alle vorherigen NGINX.com-Links werden auf ähnliche NGINX-Inhalte auf F5.com umgeleitet."