Der Begriff „Benutzer“ bezog sich im Kontext der Anwendungsdomäne immer auf die Entität, die mit einer Anwendung interagiert. Der Benutzerakzeptanztest war früher eine der letzten Phasen der Anwendungsentwicklung. Dabei kamen die Personen, die mit der Anwendung interagierten, zusammen, um zu entscheiden, ob sie akzeptabel war und ihren Geschäftsanforderungen entsprach.
Mit der Weiterentwicklung der Technologie hat sich auch die Definition des Benutzers geändert. Diese Entwicklung ist auf die Reife des Internets und die schnelle Zunahme der Rechenleistung zurückzuführen. Die Feststellung, dass unsere Smartphones über mehr Rechenleistung verfügen, als 1969 für die Reise zum Mond benötigt wurde, ist nur deshalb amüsant, weil sie stimmt. Fortschritte im Hardware-Design haben dazu geführt, dass es möglich ist, unglaubliche Mengen an Rechenleistung in sehr kleine Komponenten zu packen.
Ebenso wie Veränderungen in der Anwendungsarchitektur Veränderungen bei den Technologien mit sich bringen, die diese bereitstellen und sichern, haben Veränderungen in der Definition des Benutzers Veränderungen bei den Einsatzorten von Anwendungen mit sich gebracht.
Im Data-Center-Zeitalter waren die Benutzer fast ausschließlich Menschen, die am Arbeitsplatz auf Anwendungen zugriffen. Aus diesem Grund waren die Rechenzentren fast immer am selben Standort wie die Unternehmen, die sie unterstützten.
Während der Cloud-Ära ermöglichte das Internet ein neues Betriebsmodell – die öffentliche Cloud – um eine neue Kategorie von Benutzern besser zu bedienen, die von zu Hause aus auf Anwendungen zugriffen. Anwendungen mussten umfassender und einfacher von mehreren Standorten aus zugänglich sein, da Benutzer mittlerweile von mehreren Standorten aus auf sie zugriffen.
Heute kommen neue Benutzerkategorien hinzu, die neben Menschen auch Software, Maschinen, Geräte und Sensoren umfassen. Diese Benutzer greifen von überall auf Anwendungen zu. Im November 2020 stammten allein in den USA 45,38 % des Webverkehrs von Mobiltelefonen. Der durchschnittliche Amerikaner verfügt über mehr als zehn verschiedene vernetzte Geräte. Fernseher, Haushaltsgeräte und sogar unsere Glühbirnen nutzen Anwendungen über das Internet.
Dieser Wandel in der Definition und Verteilung der Benutzer ist eine wesentliche treibende Kraft hinter Edge Computing.
Denken Sie an die Analyse und Prognose des „Annual Internet Report“ von Cisco, in der es heißt, dass es „bis 2023 auf der Erde mehr als dreimal so viele vernetzte Geräte wie Menschen geben wird.“ Etwa die Hälfte der weltweiten Verbindungen werden Maschine-zu-Maschine-Verbindungen sein und der M2M-Bereich wird von verbraucherorientierten „Dingen“ in intelligenten Häusern und Autos dominiert werden.“ ( RCRWireless News )
Unternehmen haben schon immer versucht, Anwendungen bereitzustellen, die die Benutzer dort abholen, wo sie sind. Unternehmen müssen heute Benutzer aller Art an den Rändern des Internets erreichen. Die Anwendungen, die es Menschen und Maschinen ermöglichen, Geschäfte zu tätigen und bestimmte Aufgaben auszuführen, müssen näher an den Benutzern sein, die mit ihnen interagieren.
Einer der Hauptgründe hierfür ist das universelle Bedürfnis nach Geschwindigkeit. Ob es um den Bedarf an Anwendungsleistung oder um eine schnelle Reaktion auf die Anweisung eines Geräts geht: Geschwindigkeit ist etwas, was sowohl Menschen als auch Maschinen vom Edge Computing erwarten.
Laut den Teilnehmern unserer jährlichen Umfrage sind zwei der drei wichtigsten Anwendungsfälle für Edge:
Daraus lässt sich schließen, dass die vorhandenen Geschwindigkeiten nicht hoch genug sind. Ein Grund hierfür ist die Zusammenstellung von Anwendungen, bei der heutzutage erhebliche Latenzen auftreten. Angesichts der unzähligen Komponenten, von denen jede Zeit zum Suchen und Abrufen benötigt, ist es keine Überraschung, dass die Anwendungsleistung sowohl für Marken als auch für Benutzer weiterhin ein Problem darstellt, selbst wenn die Netzwerkgeschwindigkeit und -kapazität stetig zugenommen haben.
Und obwohl die Rechenleistung im Laufe der Zeit dramatisch zugenommen hat, bestimmt weiterhin das Netzwerk, wie schnell wir Daten über das Netzwerk übertragen können. Bei mehreren menschlichen Benutzern und sogar noch mehr Maschinen- und Systembenutzern pro Haushalt ist die Erhöhung der verfügbaren Bandbreite nicht die Lösung für eine bessere Leistung. Aufgrund physikalischer und wirtschaftlicher Gesetze ist es in vielen Fällen einfach nicht möglich, die Bandbreite und Netzwerkgeschwindigkeit zu erhöhen.
Unternehmen können sich also eine Lösung zunutze machen, indem sie Anwendungen näher an einen anderen Standort verlagern, insbesondere solche, die Daten verarbeiten und analysieren, denn der Anwendungsstandort ist die flexibelste Variable in der Leistungsgleichung.
Wir bewegen uns in eine Ära, in der Anwendungen so mobil sein müssen wie ihre Benutzer. Eine Ära, in der Rechenzentren und die öffentliche Cloud zwar eine Rolle spielen, jedoch nicht als „endgültiges Ziel“ der Bereitstellung. Stattdessen dienen Unternehmens- und Cloud-Rechenzentren als Quellen für Berechnungen, Netzwerke und Speicher, die Teil eines größeren, flexibleren Ressourcennetzes werden können, das sich über mehrere Standorte erstreckt und zwischen denen Anwendungen flexibel und nach Bedarf verschoben werden können.
Dieses Zeitalter ist das Edge-Zeitalter und wir sind davon überzeugt, dass Edge 2.0 die Plattform ist, die dies ermöglichen wird .