BLOG | BÜRO DES CTO

KI-Apps der Generation: Vom Experiment zur Produktion

James Hendergart Miniaturbild
James Hendergart
Veröffentlicht am 18. Juli 2024

Versprechen, Versprechen. Generative KI-gestützte Anwendungen versprechen eine Steigerung der menschlichen Produktivität und damit der Unternehmensgewinne. Der Weg vom Experiment zur Produktion bleibt für viele Anwendungsfälle hektisch und gefährlich, genau wie bei dem Videospiel Frogger von Konami aus dem Jahr 1981. Der Frosch muss nach Hause gelangen, indem er zuerst eine viel befahrene Straße und dann einen schnell fließenden Fluss überquert. Der Frosch kann nicht still sitzen, aber er kann auch nicht ständig nach vorne hüpfen, da dies gefährlich sein kann.

Unternehmen sind der Frosch. Die Straße und der Fluss sind schwindelerregende Fluten vorbeiziehender KI-Technologie. Bei den Schutzräumen (offene Straßen und schwimmende Baumstämme) handelt es sich um Eigenprojekte und Angebote von Händlern. Autos, Lastwagen, Schildkröten und offene Gewässer sind die ethischen, rechtlichen, datenschutzbezogenen und Genauigkeitsrisiken der generativen KI. Der Privatbereich ist die andere Seite, wo die Geschäftsgewinne nach der Einführung generativer KI-Anwendungen in die Höhe schnellen.

Die Geschwindigkeit, mit der sich die generative KI durchgesetzt hat, erzeugt in den Unternehmen eine hektische Dringlichkeit. Doch die Geschwindigkeit, mit der sich Modelle weiterentwickeln, kann manche Organisationen lähmen, weil ihnen der Boden so schnell unter den Füßen weggezogen wird, dass sie sich angesichts des ständigen, schnellen Wandels nicht orientieren können. Das Geheimnis der Einführung generativer KI ist wie das Starten einer Partie Frogger: Springen Sie hinein!

Sobald Unternehmen ausgehend von den grundlegenden Anwendungsfällen generativer KI entschieden haben, welche davon wünschenswert erscheinen, können sie mit dem Experimentieren beginnen. Unabhängig davon, ob Sie eine KI-gestützte Anwendung erstellen, Angebote von Drittanbietern ausprobieren oder beides tun: Die ersten Testläufe werden genau verdeutlichen, was das Unternehmen benötigt. Der Schlüssel zum Erfolg in dieser frühen Phase liegt in der Festlegung einer Mindestversion der Anwendung, die die Produktionsanforderungen hinsichtlich Sicherheit und Wirksamkeit erfüllt. Dies wird zum Fundament der Organisation. Von dort aus können sie weitermachen und entscheiden, welche Modellverbesserungen wichtig sind und ob es klüger ist, etwas zu bauen oder etwas zu kaufen.

Es gibt zwei Fallstricke, die ein Unternehmen bei dem Versuch, generative KI einzuführen, unweigerlich ausbremsen: das Trainieren von Modellen im eigenen Haus und private Daten-Repositories. Das Tempo der Weiterentwicklung grundlegender Modelle wird mittlerweile in Wochen und Monaten gemessen und nachgelagerte Versionen werden täglich aktualisiert. Wenn Sie Beweise brauchen, werfen Sie einfach einen Blick auf den Modell-Tracker von HuggingFace. Die Seite, die ich gerade beim Schreiben dieses Artikels aufgerufen habe, füllt fast eine ganze Seite mit Modellen, die vor weniger als einer Minute aktualisiert wurden. Man muss über den Falz hinaus scrollen, um ein Modell zu finden, das älter als 2 Minuten ist!

Wenn die zur Beantwortung einer an die KI gestellten Frage erforderlichen Daten öffentlich verfügbar sind, ist die Wahrscheinlichkeit groß, dass bereits eine große Auswahl grundlegender Modelle über eine API zur Nutzung bereitsteht. Wenn die Daten hingegen nicht öffentlich sind, muss entschieden werden, ob die Daten während der Inferenz gesendet oder ein Modell privat erstellt bzw. bezogen und bereitgestellt werden soll. Für den Zugriff auf ein Modell zu bezahlen ist definitiv schneller und höchstwahrscheinlich auch günstiger, als ein eigenes Modell intern zu erstellen oder zu lizenzieren, zu hosten und zu warten. Was ist Ihre Superkraft als Unternehmer? Wenn es um mehr als die Erstellung oder Wartung großer Sprachmodelle (LLMs) geht, sollten Sie die Lösung wahrscheinlich kaufen und nicht erstellen und hosten.

Und was private Daten betrifft, haben sich die Kontextfenster und benutzerdefinierten Optionen für die Verwendung von LLM so schnell entwickelt, dass Sicherheit und Compliance auf Unternehmensniveau, ähnlich dem, was bereits beim Cloud Computing akzeptiert wird, für die meisten Unternehmen die Anforderungen erfüllt. Tatsächlich wurde von den Modellanbietern im Jahr 2023 laut und deutlich gehört , dass kein Training auf der Grundlage Ihrer Daten erfolgt . Am Beispiel von ChatGPT Enterprise lässt sich sagen, dass es mit SOC 2 Typ 2-Konformität, SAML SSO, Verschlüsselung von Daten im Ruhezustand und während der Übertragung mit dedizierten Arbeitsbereichen aufwartet, die Datenaufbewahrung und Domänenüberprüfung unterstützen – nicht schlecht, oder? Nun, für 92 % der Fortune 500-Unternehmen scheint es völlig ausreichend zu sein.

Organisationen, die an die Versprechen der generativen KI glauben, müssen sich von den inhärenten Gefahren oder den täglichen LLM-Verbesserungen nicht lähmen lassen. Sie können Erfolg haben, indem sie mit offenen Augen hineinspringen. Der anfängliche Experimentierzyklus schafft Vertrauen und die Fähigkeit, Prioritäten zu setzen, welche Aufgaben bei sicherer und ethischer Verwendung den größten Nutzen bringen. Diese sollten im gesamten Unternehmen im Produktionsmodus eingeführt werden, um den Evaluierern und Implementierern eine Verschnaufpause zu verschaffen und dem Unternehmen Zeit zu geben, Produktivitätsgewinne zu messen, Prioritäten für die nächsten Aufgaben festzulegen und zu ermitteln, ob es sinnvoller ist, den Zugang zu LLMs selbst aufzubauen oder zu kaufen.