Die heutigen zentralisierten Cloud-Computing-Architekturen bedeuten, dass uns beispiellose Geschwindigkeit, Skalierbarkeit und Elastizität zur Verfügung stehen. In den meisten denkbaren Fällen ist die technologische Ausstattung anpassungsfähig, flexibel und völlig zweckdienlich. Es ist jedoch nicht optimal für kostengünstige, 5G-fähige Anwendungsfälle des Internet der Dinge (IoT), die eine extrem niedrige Latenz und einen extremen Durchsatz erfordern.
Hier kommt Edge Computing ins Spiel.
Anstatt Daten zur Analyse an die Cloud oder ein zentrales Data Warehouse zu übertragen, kann die Verarbeitung am „Rand“ eines Netzwerks erfolgen. Dies reduziert die Netzwerklatenz, erhöht die Bandbreite und sorgt für deutlich schnellere Reaktionszeiten. Für die Dienstanbieter ist das eine große Sache, denn sie sind nun in der einzigartigen Lage, ganze Branchen (einschließlich ihrer eigenen) aufzurütteln und über verteilte Architekturen neue, bahnbrechende und profitable Dienste anzubieten.
Bei diesem Architekturtyp sind die Komponenten nicht zentral verankert, sondern auf unterschiedlichen Plattformen verfügbar. Diese Komponenten arbeiten dann über ein Kommunikationsnetzwerk zusammen, um ein bestimmtes Ziel zu erreichen. Dabei könnte es sich beispielsweise um die Verteilung ausgewählter Netzwerkfunktionen handeln, etwa um das Cloud Radio Access Network (C-RAN) für 5G oder das Hosten von IoT-bezogenen Anwendungen.
Dank seiner verteilten Natur kann Edge Computing Dienstanbieter in die Lage versetzen, neue Lösungen und Dienste anzubieten, die gleichzeitig die Einnahmequellen steigern und die Netzwerktransportkosten senken.
Erwägen Sie Anwendungen, die eine extrem niedrige Latenz (selbstfahrende Autos) oder eine hohe Bandbreite (Videoüberwachung) erfordern. Durch die Nutzung von Edge Computing können Dienstanbieter diese Dienste wahlweise über Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) auf den Markt bringen – je nachdem, wie tief sie in der Wertschöpfungskette einsteigen möchten. Dienste dieser Art können über die herkömmliche öffentliche Cloud nicht angeboten werden.
Obwohl wir uns noch in der Anfangsphase der Entwicklung des Edge Computing befinden, können wir zuversichtlich davon ausgehen, dass in den kommenden Jahren eine Vielzahl einflussreicher IoT-Anwendungsfälle zum Mainstream vordringen werden. Beispielsweise werden bei der Entwicklung von Augmented Reality (AR), Virtual Reality (VR) und mobilen Gaming-Anwendungen bereits verstärkt Edge-Computing-Funktionen integriert und profitieren zunehmend von der schnellen Reaktionsfähigkeit bei hoher Bandbreitennutzung.
Darüber hinaus lassen sich mit virtualisierten Content Delivery Networks (vCDN)-Lösungen hohe Gewinne erzielen. Inhaltsanbieter können ihre zentralen Server entlasten und Dienstanbieter können Backhaul- und Transportkosten sparen. Der Kunde erhält ein schnelles und nahtloses Benutzererlebnis. Alle gewinnen.
Ein weiteres vielversprechendes Szenario besteht darin, dass Dienstanbieter kleine Edge-Compute-Standorte auf Unternehmensgeländen einrichten, um private 5G-Konnektivität und -Dienste bereitzustellen, und so geschickt den Bedarf an herkömmlichen lokalen Netzwerken (LAN) und WLAN umgehen.
Damit alles funktioniert
Wie können Dienstanbieter diese Anwendungsfälle – die erst die Spitze des Eisbergs darstellen – proaktiver angehen und sie in sichere, praktikable und profitable Realitäten umsetzen?
Ohne Frage werden sie sowohl intelligente Netzwerk- und Verkehrsmanagementfunktionen am Edge-Compute-Standort als auch Application Delivery Controller (ADC) und Sicherheitsdienste für die dort gehosteten Anwendungen benötigen.
Es ist erwähnenswert, dass ADC- und Sicherheitsdienste traditionell auf speziell entwickelter Infrastruktur bereitgestellt wurden, wobei die hardwarebasierte Beschleunigung genutzt wurde, um ein hohes Maß an Skalierbarkeit und Kapazität zu erreichen. Auch wenn die meisten Edge-Architekturen auf Basis handelsüblicher Server (COTS) erstellt werden, besteht weiterhin Bedarf an hoher Leistung. Aktuelle Innovationen wie die Quick Assist-Technologie von Intel gehen auf diese Nachfrage ein und stellen sicher, dass Dienstanbieter von Beschleunigungsfunktionen wie Verschlüsselung und Komprimierung über COTS-Plattformen profitieren.
Edge Computing erfordert außerdem einen verteilten Ansatz für robuste Sicherheit auf Anwendungsebene, wie beispielsweise eine Web Application Firewall (WAF). Einer der größten Fehler besteht darin, anzunehmen, dass herkömmliche Sicherheitskontrollen wie Firewalls ausreichen. Glücklicherweise sind die modernen Advanced WAF-Lösungen nun in der Lage, Anwendungen dynamisch mit Anti-Bot-Funktionen zu schützen und den Diebstahl von Anmeldeinformationen durch die Verschlüsselung von Tastenanschlägen zu verhindern. Darüber hinaus ist es möglich, die DDoS-Erkennung und -Behebung auf App-Ebene für alle Anwendungen durch eine Kombination aus maschinellem Lernen und Verhaltensanalyse zu erweitern. Zu den weiteren technologischen Must-haves gehören die Möglichkeit, Cloud-native Anwendungsdienste für auf Microservices basierende Anwendungen bereitzustellen, sowie API-Gateway-Funktionen für eine sichere Verbindung mit Drittanbietern, die auf die Edge-Compute-Plattform zugreifen.
Auch wenn die Reichweite und der Einfluss des Edge Computing noch (relativ) in den Kinderschuhen stecken, ist in den letzten Jahren in der gesamten EMEA-Region eine wachsende Dynamik zu verzeichnen, insbesondere in der Automobil- und Fertigungsbranche. Schon bald wird jede Organisation, die mit mehreren miteinander verbundenen Geräten zu tun hat und eine schnelle Datenverarbeitung benötigt, eine Edge-Computing-Strategie benötigen, ganz zu schweigen von der Technologie, die das Ganze ermöglicht.
____
Weitere Informationen zu den Service Provider-Lösungen von F5 finden Sie unter: https://www.f5.com/solutions/service-providers