Vielleicht. Es hat sicherlich weitaus mehr Anwendungsmöglichkeiten als nur eine Bedrohung für herkömmliche Suchmaschinen darzustellen oder Schulaufsätze und Werbetexte zu verfassen.
Generative KI ist eine Anwendung des maschinellen Lernens, die aus natürlichen Spracheingaben vielfältige Inhalte wie Text, Bilder oder Audio erstellen kann. Es erlangte große Popularität mit der Einführung von ChatGPT – einem OpenAI-Projekt –, was zu einer Explosion neuer Einsatzmöglichkeiten in allen Branchen führte.
Wenn Sie ChatGPT noch nicht ausprobiert haben, empfehle ich Ihnen, sich einen Moment Zeit zu nehmen und ihm ein paar Fragen zu stellen. Bitten Sie es, Ihnen etwas über sich selbst oder eine andere Person aus der Geschichte zu erzählen oder zu erklären, wie etwas funktioniert. Obwohl Vorsicht geboten ist – ChatGPT liegt nicht immer richtig – ist es eine augenöffnende Erfahrung, weil es eine neue Erfahrung ist.
ChatGPT hat einen Proof of Concept für Generative AI geliefert. Es hat uns einen Einblick in die Möglichkeiten gegeben, wie wir anders arbeiten könnten, und für uns im F5-Büro des CTO einige interessante Einblicke, wie es auf App-Bereitstellung und -Sicherheit angewendet werden könnte.
Eine der Herausforderungen im Infrastrukturbereich besteht darin, die unzähligen Geräte, Dienste und Systeme zu konfigurieren, die zur Bereitstellung und Sicherung auch nur einer einzigen Anwendung erforderlich sind. Organisationen verlassen sich durchschnittlich auf 23 verschiedene App-Dienste – wenn man „as a Service“-Angebote ausschließt.
Ich muss Ihnen wohl nicht sagen, dass die Konfiguration eines Web-App- und API-Schutzdienstes sich von der Konfiguration eines guten alten Lastausgleichsdienstes unterscheidet. Das bedeutet, dass die Leute, die für die Konfiguration und den Betrieb der App-Dienste verantwortlich sind, möglicherweise Experten für ein Dutzend verschiedener „Sprachen“ sein müssen.
Die Industrie versucht seit Jahren, dieses Problem zu lösen. Als APIs zum primären Mittel zur Konfiguration aller Bereiche wurden, bildeten App-Bereitstellung und Sicherheitsdienste keine Ausnahme. Alle haben mit imperativen APIs angefangen, die lediglich die Art und Weise geändert haben, wie Sie Befehle eingegeben haben. Anstatt Befehle in eine CLI einzugeben, haben Sie API-Befehle über HTTP gesendet.
Ziemlich schnell wurde klar, dass die durch die Verwendung imperativer APIs verursachte API-Steuer zu hoch war, und die Branche ging zu deklarativen APIs über. Doch leider hat man in der Branche größtenteils entschieden, dass deklarativ „Konfiguration als JSON“ bedeutet. Anstelle der Absicht (das Wort ist wichtig, merken Sie es sich) hinter dem deklarativen Ansatz, die lautet: „Sag mir, was du tun möchtest, und ich mache es für dich“, lautete das Ende von „Hier ist die Konfiguration, die ich möchte, machen Sie sich die harte Arbeit, sie umzusetzen.“
Es ist nicht ganz dasselbe, und es ist dennoch das gleiche Maß an Fachwissen hinsichtlich des für eine bestimmte Lösung spezifischen Betriebsmodells erforderlich. Ich bin mir nicht sicher, ob man sich in der Branche jemals darauf geeinigt hat, ob Load Balancer „Pools“ oder „Farmen“ verwenden, ganz zu schweigen von den komplexeren Einzelheiten der Interaktion virtueller Server mit realen Servern und Anwendungsinstanzen. Mit der deklarativen Methode hat die Branche also lediglich die Arbeit auf Befehlsebene von den Operatoren auf das System verlagert.
Was Generative AI nun auf den Tisch bringt, ist eine Form von Low-Code/No-Code. Diese sind zuverlässiger als manche anderen Ergebnisse, da sie auf wohlgeformten Spezifikationen basieren, die die Ergebnisgenerierung leiten. Schließlich gibt es nur eine begrenzte Anzahl an Möglichkeiten, „Hallo Welt“ zu schreiben, während es Millionen von Möglichkeiten gibt, eine Frage zu beantworten.
Das bedeutet, ich sollte einem trainierten Modell sagen können: „Hey, ich möchte meinen Load Balancer so konfigurieren, dass App A skaliert wird“, und das System sollte in der Lage sein, eine Konfiguration auszuspucken. Aber mehr noch, ich sollte in der Lage sein, ihm zu sagen: „Gib mir ein Skript, um X auf System Y mit Z zu tun“ und BÄM! Es sollte nicht nur die Konfiguration generieren, sondern auch die erforderliche Automatisierung, um sie auf dem richtigen System bereitzustellen.
Oh, schau mal. Das ist bereits der Fall.
Natürlich handelt es sich hierbei nicht um produktionsreifen Code – weder die IP-Adresse noch die Anmeldeinformationen sind gültig und es wurde Python ausgewählt (nicht meine erste, zweite oder dritte Wahl) – aber allein auf Grundlage der öffentlich verfügbaren Dokumentation und einer bemerkenswert einfachen Eingabeaufforderung sind bereits 90 % des Weges geschafft. Je detaillierter die Eingabeaufforderung, desto besser die Ergebnisse. Das gesamte unten generierte Skript ist länger, daher habe ich nur den Anfang eingefügt.
Auch hier ist es noch nicht einsatzbereit, aber es ist schon viel näher an der Funktionsfähigkeit und die Generierung dauerte ohne Schulung meinerseits buchstäblich weniger als fünfzehn Sekunden.
Aber das ist der einfache Teil. Außerdem sollte ich ihm sagen können: „Oh, übrigens, setze es ein.“ Und das Ding sollte es tun, während ich meinen Morgenkaffee genieße. Und sing mir vielleicht auch ein kleines Lied.
Aber warten Sie, es gibt noch mehr! Was wäre, wenn ich einem generativen KI-System später auch sagen könnte: „Hey, Benutzer in Green Bay melden sich häufig an und die Leistung ist nachgelassen, klonen Sie App A und verschieben Sie sie auf unseren Standort in Milwaukee.“
Und das tut es. Denn unter der Haube ist das alles nur ein Netz aus APIs, Konfigurationen und Befehlen, die heute durch Skripte automatisiert werden können und oft auch werden. Diese Skripte sind häufig parametrisiert, was lose mit den Parametern in meiner KI-Eingabeaufforderung korreliert: Green Bay, Milwaukee, App A. Was sich also ändert, ist der Generator und die Geschwindigkeit, mit der er erzeugt werden kann.
Ich sage oft, dass KI und Automatisierung Kraftmultiplikatoren sind. Weil die Technik nicht weiß, was sie tun soll, wissen wir es. Doch mit KI und Automatisierung geht das viel schneller und effizienter: Sie steigern die Produktivität, verkürzen die Wertschöpfungszeit und geben den Experten mehr Zeit, sich auf strategische Entscheidungen und Projekte zu konzentrieren. Und mit der Zeit kann die KI von uns lernen, unsere Kapazitäten weiter vervielfachen und neue Möglichkeiten eröffnen.
Das ist keine Science-Fiction mehr, sondern Realität der Informatik.
Viele der heutigen AIOps-Lösungen konzentrieren sich ausschließlich auf die Bereitstellung von Erkenntnissen, die 98 % der Organisationen fehlen .
Sie lösen die Probleme von gestern, nicht die Bedürfnisse von morgen.
Sogar AIOps-Plattformen, die autonomer agieren können – wie etwa Sicherheitsdienste – sind in hohem Maße von bereits vorhandenen Konfigurationen und wohlformulierten Antworten abhängig. Normalerweise wird KI nicht genutzt, um eine autonomere Ausführung von Vorgängen über die heterogenen App-Bereitstellungs- und Sicherheitsebenen hinweg zu ermöglichen. Sie nutzen KI zur Datenanalyse und zum Aufdecken von Erkenntnissen, für deren Aufdecken wir als Menschen weder die Fähigkeit noch die Zeit haben. Doch hier endet es oft, zumindest bei den Schichten über dem Netzwerk und den wohlbekannten Sicherheitsproblemen.
Hier kann generative KI die Oberhand gewinnen, und deshalb bin ich fest entschlossen, zu untersuchen, wie weit wir diese Technologie treiben können, um die Bereitstellung und Sicherheit von Apps „lächerlich einfach“ zu machen.
Willkommen an der Spitze des KI-Eisbergs.