In der heutigen digitalen Landschaft versuchen Unternehmen bei IoT-Anwendungsfällen zunehmend, Anwendungen näher an den Endbenutzern oder Client-Geräten bereitzustellen. Dabei geht es darum, die Latenz zu minimieren, den Backhaul hochpräziser Edge-Daten zu reduzieren und das allgemeine Kundenerlebnis zu verbessern. Dieser Wandel führt zur Migration von Front-End-Anwendungen (kundenorientierten Anwendungen) aus herkömmlichen Rechenzentren und öffentlichen Clouds an den Rand, wo Client-Anfragen lokal verarbeitet werden können.
Darüber hinaus setzen Unternehmen in Branchen wie Einzelhandel und Fertigung zunehmend KI-/ML-Anwendungen an Edge-Standorten ein, um die Lieferkette zu optimieren, die Arbeitssicherheit und die vorbeugende Wartung zu verbessern. Kernanwendungen und Nicht-Echtzeit-Apps verbleiben in der Zwischenzeit in der Cloud. Dieser Wandel wird durch moderne containerisierte Apps vorangetrieben. Diese Apps erfordern die Bereitstellung von Kubernetes am Edge, um eine App-Hosting-Plattform bereitzustellen. Zu den weiteren Hauptanliegen neben dem Hosting gehören die Gewährleistung der clientseitigen Sicherheit und die Herstellung einer sicheren Verbindung zurück zur Cloud oder zum Rechenzentrum.
Edge-Anwendungsfälle sind sehr vielfältig, aber ein zentrales Thema ist die Notwendigkeit, Apps sicher und effizient bereitzustellen und gleichzeitig Latenz, Kapazität und physische Standorteinschränkungen zu berücksichtigen. Einige Beispiele sind:
Intelligente Ticketautomaten an Bahnhöfen, Terminals zum Bestellen von Essen an Drive-Ins und Bankautomaten, die direkt mit menschlichen Kunden interagieren.
KI-gestützte Überwachungssysteme in Fertigungsmontagelinien zur vorbeugenden Wartung und Arbeitssicherheit, Sensordatenerfassung an Kanten in industriellen oder Smart-Home-Anwendungen.
Mobile Edge-Setups in Lieferfahrzeugen.
Bordunterhaltungssysteme.
Wenn Apps aus herkömmlichen Hosting-Umgebungen wie der öffentlichen Cloud oder lokalen Rechenzentren an den Rand verschoben werden, können verschiedene Herausforderungen auftreten, die die Bereitstellung verlangsamen können:
Verwalten mehrerer Kubernetes-Cluster: Unternehmen setzen überall zwischen Hunderten und Tausenden von Edge-Sites ein, was die Betriebskomplexität und Angriffsfläche erhöht und die Bereitstellungsgeschwindigkeit verlangsamt. Die Verwaltung mehrerer Cluster erfordert eine vereinfachte Lösung für die Bereitstellung, Verwaltung und Aktualisierung von Clustern im großen Maßstab.
Rationalisierung des Anwendungsmanagements: Multi-Cluster-Architekturen erfordern vielseitige Strategien zur App-Bereitstellung. Für die Bereitstellung, Überwachung und Aktualisierung von Anwendungen in verteilten Kubernetes-Clustern ist ein zentrales Verwaltungssystem von entscheidender Bedeutung.
Gewährleistung robuster Sicherheit: IoT-Endpunkte sind von Natur aus unsicher und Benutzerterminals sind anfällig für Hackerangriffe, wenn die physische Sicherheit beeinträchtigt ist. Um diese Endpunkte zu schützen, müssen Edge-Lösungen Funktionen wie Web Application Firewall (WAF), Bot-Erkennung , API-Schutz , DDoS-Minderung und Zero-Trust -Strategien integrieren, um Anwendungen sicher bereitzustellen.
Herstellen einer sicheren Verbindung: Ob über private Netzwerke oder das öffentliche Internet: verschlüsselte Verbindungen zwischen Edge-Standorten und zentralen Anwendungen sind von entscheidender Bedeutung. Netzwerke benötigen außerdem eine zentrale Richtlinienverwaltung und -durchsetzung über alle Edge- und Cloud-Sites hinweg, um eine robuste Edge-Sicherheitslage zu gewährleisten.
Sicherstellung von Zuverlässigkeit und Belastbarkeit: Randstandorte verfügen möglicherweise nicht über die beste Internetverbindung, sind häufig in der Bandbreite eingeschränkt und anfällig für Verbindungsabbrüche. Bei mobilen Edge-Geräten, die über drahtlose 4G- oder 5G-Netzwerke verbunden sind, kann es zu Verbindungsverlusten kommen, wenn sich das Fahrzeug in dichten städtischen Umgebungen durch Funkschattenbereiche bewegt. Randstandorte müssen trotz potenzieller Netzwerkstörungen ihren Betrieb fortsetzen, da die Widerstandsfähigkeit gegenüber zeitweiligen Verbindungsverlusten für die Geschäftskontinuität von entscheidender Bedeutung ist.
Infrastrukturunabhängig: Edge-Computing-Lösungen müssen anpassungsfähig sein und nahtlos in verschiedenen Ökosystemen funktionieren – einschließlich öffentlicher Clouds, Colocation-Standorten und Zweigstellen.
Zwar können Unternehmen mithilfe einer breiten Palette von Open Source- oder kostenpflichtiger Software Lösungen zusammenstellen, doch mit zunehmender Größe wird die manuelle Netzwerkeinrichtung immer schwieriger. Dieser Ansatz bringt jedoch auch Sicherheitsrisiken mit sich und kann für ein Unternehmen auf lange Sicht unerschwinglich sein.
Unternehmen benötigen eine zentrale Lösung, die diese Herausforderungen bewältigt, den täglichen Betrieb rationalisiert und gleichzeitig Erschwinglichkeit und robuste Sicherheit gewährleistet. Eine umfassende Edge-Computing-Plattform ermöglicht es Unternehmen, ihre Investitionen auf die Entwicklung und Verbesserung ihrer Anwendungen zu konzentrieren und sich dabei auf den reibungslosen, sicheren und kosteneffizienten Betrieb ihrer Edge-Infrastruktur verlassen zu können.
F5 Distributed Cloud Services sind die ideale Lösung für Unternehmen, die nahtlose Edge-Bereitstellungen benötigen und Hilfe bei der Bewältigung der Herausforderungen der modernen Anwendungsbereitstellung brauchen. Distributed Cloud Services bieten eine Reihe von SaaS-verwalteten Produkten und Diensten, die die Edge-Bereitstellung vereinfachen, die Anwendungsbereitstellung beschleunigen und Bereitstellungen mit unternehmensweiter Sicherheit verstärken sollen.
Den Kern der Distributed Cloud Services bildet der Distributed Cloud App Stack , eine leistungsstarke Lösung, die verwaltetes Kubernetes für Anwendungshosting und Mesh-Netzwerkdienste ermöglicht. Diese fortschrittliche Plattform vereinfacht die Komplexität des Edge Computing und bietet Unternehmen:
Verwaltetes Kubernetes : Distributed Cloud App Stack verwaltet die Kubernetes-Plattform und bietet eine zentrale Konsole für die Überwachung, Aktualisierung und Durchführung verschiedener alltäglicher Vorgänge über Cluster hinweg. Dieses optimierte Management gewährleistet optimale Leistung in unterschiedlichen Edge-Umgebungen.
Unterstützung für KI-Workloads: Distributed Cloud App Stack bietet GPU-Unterstützung für die Ausführung von KI-Workloads, die eine parallele Verarbeitung erfordern, und ermöglicht Unternehmen, Spitzentechnologien ohne Einschränkungen zu nutzen.
Offline-Überlebensfähigkeit: Verteilte Cloud App Stack-Cluster funktionieren auch bei zeitweiligen Problemen mit der Netzwerkverbindung reibungslos und gewährleisten null Ausfallzeiten und eine unterbrechungsfreie Dienstbereitstellung.
Virtual Kubernetes (vK8s) ist ein revolutionärer Ansatz zur Verwaltung von Clustern. Es ermöglicht Unternehmen, Anwendungsnamespaces über zahlreiche Distributed Cloud App Stack- Cluster hinweg in einem virtuellen Kubernetes-Cluster zu gruppieren. Diese Konsolidierung vereinfacht die Bereitstellungskomplexität:
Einheitlicher API-Endpunkt: RBAC-Richtlinien ermöglichen Plattformadministratoren, den erforderlichen Anwendungsteams über einen einzigen API-Endpunkt Zugriff auf den vK8s-Cluster zu gewähren. Diese einheitliche Schnittstelle optimiert die Bereitstellungsverfahren und verbessert die Zusammenarbeit.
Mühelose Skalierbarkeit: App-Entwickler können Anwendungen problemlos in Tausenden von Edge-Clustern bereitstellen, was der Einfachheit der Bereitstellung in einem einzelnen Cluster entspricht. Der vK8s-Endpunkt repliziert Anwendungen nahtlos auf alle Cluster und gewährleistet so eine gleichbleibende Anwendungsleistung und -integrität.
Distributed Cloud App Connect ermöglicht eine nahtlose Diensterkennung und Anwendungsbereitstellung innerhalb des Distributed Cloud-Ökosystems. Distributed Cloud App Connect erstellt ein clusterübergreifendes Service-Mesh, das Edge-Anwendungen den sicheren Zugriff auf Remote-Dienste ermöglicht, als wären sie lokale Ressourcen. Dies ermöglicht eine nahtlose Konnektivität und reduziert gleichzeitig die Angriffsfläche der Anwendung.
Das globale Netzwerk-Backbone und die Regional Edge (RE) Points of Presence (PoPs) von F5 gewährleisten:
Privater Transport mit geringer Latenz: Das globale Netzwerk-Backbone von F5 bietet in Verbindung mit RE PoPs ein privates Transportsystem mit geringer Latenz für den Datenverkehr zwischen Standorten.
Integrierte Sicherheitsdienste: REs bieten integrierte Anwendungssicherheitsdienste wie WAF, DDoS- und Bot-Schutz, API-Schutz und Verschlüsselung. Dieses umfassende Sicherheitspaket schützt Edge-Anwendungen und Daten vor potenziellen Bedrohungen und gewährleistet einen robusten Schutz vor Cyberrisiken.
Vereinfachte Bereitstellung: REs können in vK8s gruppiert werden, sodass Benutzer Anwendungen auf den PoPs von F5 bereitstellen können, ohne eigene Edge-Sites einrichten zu müssen. Dies beschleunigt die Bereitstellungszeitpläne und reduziert den Betriebsaufwand für Unternehmen.
Mithilfe verteilter Cloud-Dienste können Unternehmen die Herausforderungen moderner Edge-Bereitstellungen bewältigen und Agilität, Sicherheit und beispiellose Effizienz in der sich rasch entwickelnden digitalen Landschaft gewährleisten. Mit Distributed Cloud Services können Unternehmen getrost auf Edge Computing setzen und sich auf Innovationen konzentrieren, während Distributed Cloud Services sich um die Komplexität der Verwaltung der Edge-Infrastruktur, des Anwendungshostings, der Vernetzung und der Sicherheit kümmern.