„Daten sind das neue Öl“ oder „Daten sind das Schmiermittel der digitalen Wirtschaft.“ Wenn Sie so sind wie ich, haben Sie diese Sätze oder vielleicht sogar die eher aus der Business School stammende Phrase „Monetarisierung von Datenabgasen“ wahrscheinlich schon so oft gehört, dass sie schon zu Klischees geworden sind. Doch wie alle guten Klischees basieren sie auf einer grundlegenden Wahrheit, oder in diesem Fall auf einem sich ergänzenden Paar von Wahrheiten. Die erste Wahrheit ist die Beobachtung, dass die Daten, die bei normalen Betriebsvorgängen als Nebenprodukt entstehen, einen latenten Wert enthalten. Die zweite, damit zusammenhängende, aber oft unerwähnte Wahrheit besteht darin, dass der intensive Prozess der Freilegung dieses latenten Werts ein Prozess ist, der mehrere Schritte umfasst, obwohl es auf dem Weg dorthin natürliche Stufen der Entwicklung und Reife gibt.
Wenn man einen Schritt zurücktritt, ist das Konzept, Betriebsdaten zu nutzen, um geschäftlichen Nutzen zu erzielen, sicherlich nicht neu. Tatsächlich haben Branchen, die auf eine Optimierung der Logistik angewiesen sind – wie etwa der Lebensmittel- und Lieferhandel – dieses Konzept schon lange verstanden und angenommen. Auch der moderne Unternehmenstrend zur „ digitalen Transformation “ stellt eine Verallgemeinerung dieser Idee dar, die typischerweise zunächst auf interne Geschäftsprozesse und Arbeitsabläufe angewandt wird. Bemerkenswerterweise gibt es im Bereich der Anwendungen und Anwendungsdienste eine analoge Entwicklung. In diesem Artikel möchte ich mich darauf konzentrieren, wie die Entwicklung von Anwendungen und Anwendungsdiensten mit dem größeren Megatrend der Datenwertgewinnung interagiert und harmoniert, wo diese Symbiose heute steht und schließlich, wohin sie in naher Zukunft geht.
Diese Reise beginnt mit der Datenerfassung. Es ist hilfreich, sich Daten als den Treibstoff des Systems vorzustellen. Ohne diesen Treibstoff können die Motoren, die die Arbeit verrichten, nicht angetrieben werden. Oberflächlich betrachtet scheint dies eine vollendete Tatsache zu sein, da Anwendungsdienstlösungen eine Fülle von Ereignissen und Statistiken für Sicherheit, Zuverlässigkeit, Leistungsmanagement und Orchestrierung bereitstellen. Allerdings sind die Daten häufig unstrukturiert, die Syntax variabel und die Semantik häufig ad hoc. Denken Sie an ein einfaches, aber allgemeines Beispiel: Wie wird das Konzept der Zeit in Ihren Daten dargestellt? Normalerweise gibt es viele Möglichkeiten, etwas konzeptionell so Einfaches wie einen Zeitstempel darzustellen. Dies verdeutlicht die Notwendigkeit einer Lingua Franca, einer gemeinsamen Darstellung grundlegender „Atome“, die Ereignisse und Statistiken beschreiben. In der Technologiesprache bezeichnen wir dies als „Datenaufnahme“, die auf einem konsistenten Datenschema basiert und nach Bedarf Adapter/Übersetzer nutzt. Dieser Bedarf war in der Vergangenheit einer der Haupttreiber für Wachstum und Wertschöpfung für SIEM-Anbieter, die dem Bedarf nachkamen, dieses standardisierte Vokabular bereitzustellen, um eine ganzheitliche Sicht auf die Sicherheit einer Vielzahl von Sicherheitspunktlösungen zu bieten. Die Fähigkeit, als Ausgabe eine integrierte Präsentation der Daten zu erhalten – einen geordneten und ganzheitlichen Augenzeugenbericht dessen, was jetzt geschieht und was in der Vergangenheit geschehen ist – ist die Phase der Entwicklung, in der sich der Großteil der Branche heute befindet. Im heutigen Anwendungsökosystem wird dies vor allem durch die Marktvertikalen SIEM und APM veranschaulicht.
Der nächste Schritt besteht darin, die Augenzeugenberichte zu verstehen: nach Gemeinsamkeiten zu suchen, die Daten in beschreibbare Muster zu zerlegen und Anomalien zu identifizieren. Aufgrund der Datenmenge werden Menschen bei dieser Tätigkeit normalerweise durch Computer unterstützt oder ergänzt. Diese Unterstützung kann in Form der Verwendung fortgeschrittener, oft unbeaufsichtigter statistischer Klassifizierungstechniken erfolgen, die manchmal durch eine von Menschen geleitete Datenerkundung und -visualisierung ergänzt werden.
Ein Beispiel aus dem Anti-DoS-Bereich ist die Visualisierung der geografischen Natur des eingehenden Datenverkehrs, die häufig verwendet wird, um bösartigen Datenverkehr zu identifizieren, der aus einer kleinen Anzahl von Ländern stammt. Ein weiteres Beispiel sind Tools zur Benutzerverhaltensanalyse („UBA“), die die Eigenschaften menschlichen Verhaltens im Vergleich zu Bot-Verhalten charakterisieren. Diese Lösungen nutzen häufig statistische Analysen, um die Wahrscheinlichkeit zu bestimmen, mit der eine Webinteraktion von einem Menschen stammt.
Diese Phase der Reise – „ Destillieren und Beschreiben “ – ist eine Weiterentwicklung des vorherigen Schritts „ Sammeln und Berichten “. Es beruht grundsätzlich immer noch auf einem großen, strukturierten Datenpool für die Analyse. Wie oben erwähnt, ist dieser Ansatz die Grundlage für einige der neueren (wenn auch eng fokussierten) Punktlösungen für die Anwendungssicherheit.
Der dritte Schritt dieser Reise besteht darin, über die bescheidene Analyse von „ Destillieren und Beschreiben “ hinauszugehen und tiefere analytische Schlussfolgerungen zu ziehen, die zu Vorhersagen und Prognosen über erwartete zukünftige Beobachtungen führen. Dadurch wird die Lösung über eine rein reaktive Lösung hinaus erweitert, indem intelligente Extrapolationen für das erwartete zukünftige Verhalten vorgenommen werden. Ein Beispiel auf der Anwendungsinfrastrukturebene findet sich im Bereich Application Performance Management (APM), nämlich der Identifizierung zeitbasierter Verhaltensmuster und der Verwendung dieser Muster zur Prognose des zukünftigen Ressourcenbedarfs. Ein weiteres Beispiel anhand eines Anwendungsfalls für die Geschäftslogik einer Anwendung ist die Nutzung von Techniken des maschinellen Lernens („ML“) auf Reise-Websites, um Angebot und Nachfrage für bestimmte Routen an zukünftigen Terminen vorherzusagen. Die hier am häufigsten eingesetzten Technologien sind fortgeschrittene Analysetechnologien, insbesondere solche, die auf Zeitreihen- und linearen Regressionstechniken basieren und auf den im vorherigen Schritt ermittelten Datenmustern aufbauen.
Der vierte und letzte Schritt umfasst das „Schließen des Kreises“, um umsetzbare Anpassungen und Korrekturen am gesamten System vorzunehmen. Die Analyse der beiden vorherigen Schritte wird in eine Reihe proaktiver Empfehlungen umgesetzt. An diesem Punkt wird das System anpassungsfähig und robust gegenüber Angriffen und Änderungen in seiner Umgebung. Beispielsweise hätte eine konzeptionelle Anwendungsinfrastruktur, die diese Funktion nutzt, die Möglichkeit, Container-Workload-Instanzen je nach prognostizierter Nachfrage proaktiv zu erstellen oder zu zerstören. Oder es könnte im Kontext der Anwendungssicherheit den von Botnetzen generierten Datenverkehr proaktiv filtern, basierend auf zuvor erlernten Botnetz-Verhaltensweisen. Ein bemerkenswertes Beispiel gibt es bereits heute im Bereich der Geschäftslogik – in Form der dynamischen Preisgestaltung, die ebenfalls auf dem erwarteten Angebot und der erwarteten Nachfrage basiert.
Die zugrunde liegende Technologie ist häufig regelbasiert und dient dazu, Vorhersagen in Aktionen umzusetzen. Im Kontext der Anwendungsinfrastruktur und der Anwendungsdienste wird dieser Ansatz jedoch häufig mit stärker absichtsbasierten oder deklarativen Anweisungen für die Konfiguration und Orchestrierung gekoppelt.
Diese Reise – vom „Erfassen und Berichten“ über das „Destillieren und Beschreiben“ und „Schließen und Vorhersagen“ bis hin zum „Begründen und Verschreiben“ – ist eine natürliche Weiterentwicklung. Jeder einzelne Fortschritt baut auf den vorherigen auf und erschließt eine neue und tiefgreifendere Wertebene. Die heutigen Lösungen für die Herausforderungen in den Bereichen Anwendungsinfrastruktur und -dienste sind in ihrem Reifegrad im Verlauf der Datenwertextraktion unterschiedlich ausgereift und in der Regel nicht gut in die Vielzahl der Punktlösungen integriert.
Der vorbereitende Schritt – der sprichwörtliche „Treibstoff“ für den Daten-„Motor“ – wird in einer Vielzahl von Anwendungsdiensten immer sichtbarer. Diese Instrumentierung, die an mehreren Punkten in der Anwendungsbereitstellungskette eingesetzt und mit den Prinzipien einer konsistenten Datensemantik und föderierten Datenspeichern gekoppelt wird, ist eine der Möglichkeiten, mit denen F5 unsere Reise in die Zukunft der Anwendungsdienste beschleunigt. Wir möchten die Wertschöpfung für unsere Kunden noch weiter beschleunigen, indem wir gleichzeitig den Datentrichter erweitern, um eine bessere Integration von Punktlösungen zu ermöglichen, und die Weiterentwicklung der relevanten Technologiebausteine vorantreiben.
In zukünftigen Artikeln möchte ich näher auf die datengesteuerte Architektur eingehen, indem ich sowohl näher heranzoome, um tiefer in die beteiligten Kerntechnologien einzutauchen, als auch herauszoome, um die Interaktionen mehrerer Datenökosysteme über mehrere souveräne Datenpipelines hinweg zu untersuchen.