Die Notwendigkeit der Skalierbarkeit ist heutzutage nicht einmal eine Frage. Die Antwort ist immer: Ja, Sie brauchen es. Das Unternehmenswachstum hängt vom operativen Wachstum der Anwendungen ab, die schließlich ein wesentlicher Bestandteil der heutigen Geschäftsmodelle sind – unabhängig von der Branche. Daher werden Systeme im Allgemeinen mit den notwendigen Elementen bereitgestellt, um diesen Maßstab dann zu erreichen – und nicht falls – wenn er benötigt wird. Normalerweise ist damit ein Proxy gemeint. Und die für die Skalierung verantwortlichen Proxys (normalerweise ein Load Balancer) sind daher ziemlich wichtige Komponenten in jeder modernen Architektur.
Diese Proxys dienen nicht nur als Mechanismus zur Skalierung, sie werden durch die Wunder der automatischen Skalierung auch zunehmend dazu verpflichtet, dies automatisch zu tun. Dieses einfache Wort mit Bindestrich hat eine große Bedeutung. Beispielsweise die Fähigkeit, ein System programmgesteuert anzuweisen, nicht nur zusätzliche Kapazitäten bereitzustellen, sondern auch sicherzustellen, dass der für die Skalierbarkeit zuständige Proxy von deren Existenz weiß und Anfragen dorthin weiterleiten kann.
Wir erwarten, dass ein Proxy, der seinen Zweck erfüllt, über die nötigen programmatischen Schnittstellen verfügt. Die API-Ökonomie dreht sich nicht nur um den Austausch zwischen Anwendungen und Nutzern, sondern auch um die Kommunikation zwischen Systemen – lokal und in der Cloud. Wir übersehen oft, dass das Hinzufügen einer neuen Ressource zu einem Load-Balancing-Proxy auf der Management- oder Steuerungsebene stattfindet, nicht jedoch auf der Datenebene.
Das macht Sinn. Wir möchten den Systembetrieb nicht stören, während wir Statistiken erfassen oder die Konfiguration manipulieren. Das ist ein No-Go, insbesondere in einer Situation, in der wir versuchen, die Kapazität zu erhöhen, weil das System auf Hochtouren läuft und eifrigen Benutzern Apps liefert.
Aber was passiert, wenn das Gegenteil eintritt? Wenn der Betrieb des Systems die Möglichkeit zur Verwaltung des Systems beeinträchtigt?
Ihre automatische Skalierung (oder auch manuelle Skalierung) wird fehlschlagen. Das heißt, die App-Kapazität wird nicht erhöht und das Geschäft wird darunter leiden.
Das ist schlimm, als ob ich Ihnen das sagen müsste.
Der Grund dafür ist, dass viele Proxys — ohne dieses Paradoxon zu berücksichtigen — Systemressourcen für Steuerungs- und Datenebene gemeinsam nutzen. Zwischen ihnen besteht keine Isolation. Dasselbe Netzwerk, das die Apps liefert, steuert auch den Proxy. Dasselbe RAM und dieselbe Rechenleistung, die für die Bereitstellung der Apps reserviert sind, steuern auch den Proxy. Unter Last erhält nur eine der beiden Komponenten die Ressourcen. Versuchen Sie, dem Proxy zusätzliche App-Ressourcen zuzuweisen, um zu skalieren, und haben Sie keinen Zugriff auf das System, stehen Sie vor erheblichen Problemen.
Deshalb sollten Sie bei der Auswahl von Proxys besonders auf ihre Verwaltbarkeit achten. Nicht nur auf die einfache Handhabung. Nicht nur auf die API- und Skriptfunktionen, sondern auf die Verwaltbarkeit unter Last. Proxys, die speziell für den großflächigen Einsatz konzipiert sind, verfügen über separate Ressourcen, die ausschließlich für das Management reserviert sind. So gewährleisten wir, dass Sie die Datenpfade auch bei hoher Auslastung durch App-Bereitstellung stets effektiv verwalten und überwachen können.
In der Netzwerkwelt nennen wir dies Out-of-Band-Management, weil es außerhalb des Datenpfads erfolgt – des primären Pfads, des kritischen Pfads.
Die Fähigkeit, einen Proxy unter Last außerhalb des Bandes zu verwalten, ist wichtig für die allgemeine Fähigkeit, die Apps und damit das Geschäft automatisch oder manuell zu skalieren.