BLOG | BÜRO DES CTO

Lösungen für Sicherheit und Zuverlässigkeit generativer KI

Lori MacVittie Miniaturbild
Lori MacVittie
Veröffentlicht am 28. November 2023

Alle stürzen sich auf die Goldmine der generativen KI. Zumindest scheint es auf den ersten Blick so. Heutzutage erreicht mich kaum eine Pressemitteilung, in der generative KI nicht in irgendeiner Form erwähnt wird.

Bei genauerem Hinsehen wird jedoch schnell klar, dass generative KI derzeit den größten Einfluss auf das Marketing hat.

Was wir derzeit beobachten, ist, dass die Leute nach den Früchten greifen, die am niedrigsten hängen. Jede Fähigkeit, die sich ohne nennenswerte Entwicklungs- oder Forschungsarbeit einfach „anschrauben“ lässt, wird mit Sekundenkleber draufgeklatscht und ausgeliefert.

Die meisten Unternehmen – ob im Technologiesektor, in der Fertigungsindustrie oder im Gesundheitswesen – verfolgen einen gemäßigteren Ansatz. Ein eher strategischer Ansatz, wenn ich das sagen darf. Und da dies mein Blog ist, kann ich das.

Die Gründe für die kritischere Einstellung gegenüber dem Einsatz generativer KI sind bekannt, wenn man das Bewusstsein anhand einer aktuellen ExtraHop-Umfrage beurteilt. Die größten Bedenken fallen in zwei Lager: Zuverlässigkeit und Sicherheit.

Größte Bedenken bei der Verwendung generativer KI-Diagramme.

Im Bereich der generativen KI dreht sich bei Zuverlässigkeit alles um Genauigkeit und Vertrauen. Ich muss darauf vertrauen können, dass die Antworten, die ich erhalte – ob Code, Konfiguration oder Inhalt – genau und richtig und nicht voller Voreingenommenheit sind.

Was die Sicherheit betrifft, haben wir dieselben alten Sorgen wie immer – und noch mehr. Jetzt geht es nicht nur darum, die persönlichen Daten von Kunden und Mitarbeitern preiszugeben, sondern auch darum, dass Geschäftsgeheimnisse und geistiges Eigentum in die weite Welt gelangen. 

Lösungen für generative KI-Risiken

Das zuverlässige Lösen von Herausforderungen ist mit viel Arbeit verbunden, da entweder (a) viel Training und Feinabstimmung erforderlich sind oder (b) ein architektonischer Ansatz verfolgt wird, bei dem die generative KI nur einen Teil der Lösung darstellt und fortschrittliche Prompt-Engineering-Techniken nutzt, um ihre eigenen Antworten zu validieren. Beides erfordert Zeit und Geld und deshalb gehen wir nicht davon aus, dass generative KI-Lösungen die Märkte prägen werden. Noch. Das wird kommen, aber es wird einige Zeit dauern. 

Die Sicherheitsherausforderung ist sowohl einfacher als auch schwieriger zu bewältigen. Um die Herausforderung der Offenlegung von Geschäftsgeheimnissen oder geistigem Eigentum zu lösen, müssen Sie entweder (a) Ihre eigenen Instanzen eines LLM bereitstellen und betreiben – mit allem, was dazugehört – oder (b) das Problem mit einer Architektur umgehen. Dies bedeutet, GPT-Agenten zu entwickeln, die die generativen Fähigkeiten eines LLM als Werkzeug, aber nicht als primäre Quelle nutzen. 

Beispielsweise kann man leicht vergessen, dass die von Ihnen erfassten Daten von strategischer Bedeutung sein können. Das Modell, das ich zur Verfolgung der Marktaktivitäten verwende, mag harmlos erscheinen, gibt jedoch Aufschluss darüber, wie F5 über den Markt denkt und plant, auf diesem Markt wettbewerbsfähig zu sein. Es hat strategische Bedeutung. Dies ist daher nichts, was Sie zur Analyse an einen öffentlichen LLM weitergeben möchten. Hinzu kommt, dass generative KI bei der Analyse tabellarischer Daten schrecklich ist – und ich meine wirklich schrecklich –, und dies scheint ein schlechter Anwendungsfall zu sein. 

Aber es ist überhaupt keine schlechte Idee, OpenAI-Funktionen zu nutzen, um die Datenanalysefunktionen von Python auszunutzen . Dies erfordert Zeit und Entwicklungsaufwand, da Sie einen GPT-Agenten erstellen müssen, anstatt die Daten einfach zur Analyse an OpenAI zu übergeben. Es löst jedoch sowohl das Problem der Zuverlässigkeit als auch der Sicherheit. 

Im Falle einer versehentlichen Offenlegung personenbezogener Daten von Kunden oder Mitarbeitern gibt es bereits eine einfachere Lösung: die Datenmaskierung.

Datenmaskierung für generative KI

Die Datenmaskierung wird in der Entwicklung bereits zunehmend eingesetzt, da sie Entwicklern Tests mit echten Daten ermöglicht, ohne das Risiko einzugehen, vertrauliche Daten preiszugeben. Aber es lässt sich ebenso gut im Zusammenhang mit generativer KI anwenden, um einer Aufdeckung vorzubeugen. Es stehen bereits zahlreiche Open-Source-Bibliotheken und -Tools zur Verfügung, die die Integration erleichtern, da generative KI größtenteils API-gesteuert ist und APIs Anfragen nach vertraulichen Daten leicht abfangen und prüfen können. 

Die Verwendung der Datenmaskierung zur Lösung von Sicherheitsbedenken im Bereich generativer KI funktioniert sowohl in der Entwicklung als auch in der Produktion und stellt sicher, dass vertrauliche Daten während des gesamten Anwendungslebenszyklus nicht offengelegt werden. 

Sicherlich war die Datenmaskierung bereits auf dem Vormarsch, bevor die generative KI aufkam und allen anderen Technologien den Rang ablief. Aber generative KI wird sich wahrscheinlich als Katalysator für Datenmaskierungsfunktionen im Bereich Anwendungsbereitstellung und -sicherheit sowie bei der App-Entwicklung erweisen.

Erfahren Sie, wie F5-Lösungen KI-basierte Apps unterstützen und schützen ›