Erkunden Sie die Sicherheitsrisiken und Optimierungsherausforderungen bei der Vorbereitung eines ausgewogenen Ansatzes für Anwendungen, die auf generativer KI basieren.
Generative KI (oder GenAI) kann durch Lernen aus Mustern und Beispielen in vorhandenen Daten selbstständig neue Inhalte wie Texte, Bilder oder Audiodateien erzeugen. Sie nutzt Deep-Learning-Modelle, um vielfältige und kontextrelevante Ergebnisse zu generieren, und ahmt so die Kreativität und Problemlösungsfähigkeit des Menschen nach.
Einzelpersonen und Organisationen nutzen die generative KI für eine Vielzahl von Anwendungen, darunter die Erstellung von Inhalten, die Verarbeitung natürlicher Sprache und die Datensynthese. Bei der Erstellung von Inhalten hilft sie bei der Generierung von Gedichten, akademischen Aufsätzen und Marketingmaterialien bis hin zu Bildern, Videos, Musik und Computercode. Im Bereich der Verarbeitung natürlicher Sprache verbessert generative KI Chatbots und Sprachübersetzungen und ermöglicht die Synthese riesiger Datenmengen, um die Kreativität bei Produktdesign, Entwicklung und Prototyping zu fördern. Der Einsatz von GenAI-Anwendungen in einer Organisation kann menschliche Arbeitskräfte unterstützen, indem er zu einer besseren, fundierteren Entscheidungsfindung und einer verbesserten betrieblichen Effizienz beiträgt, was zu höherer Rentabilität und Geschäftswachstum führt.
Generative KI bringt jedoch auch erhebliche Sicherheits- und ethische Bedenken mit sich, einschließlich des Potenzials für Verzerrungen, verstärkte Cyberangriffe und Datenschutzrisiken. Zum Beispiel kann generative KI große Sprachmodelle (LLMs) verwenden, die aus Inhalten trainiert werden, die systematisch aus dem Internet entnommen wurden, einschließlich Online-Bücher, Posts, Websites und Artikel. Generative Modelle lernen aus Trainingsdaten, und wenn die verwendeten Daten verzerrt sind, kann das Modell bestehende Verzerrungen in seinen Ausgaben aufrechterhalten und sogar verstärken. Darüber hinaus kann generative KI versehentlich irreführende oder falsche Informationen generieren (sogenannte Halluzination), die zur Verbreitung von Fehlinformationen führen. Böswillige Akteure können GenAI auch einsetzen, um Propaganda zu verbreiten und abzustimmen, die zu sozialen Unruhen führen kann. Generative KI wird heute häufig von böswilligen Akteuren genutzt, um Deepfakes zu erstellen, realistische, aber manipulierte Inhalte, die irreführend oder bösartig sein können. Deepfakes können für Identitätsdiebstahl, Social-Engineering- oder Phishing-Angriffe, die Verbreitung falscher Informationen oder die Erstellung irreführender Inhalte verwendet werden, die eine Bedrohung für den Einzelnen und die Gesellschaft darstellen. Darknet-Marktplätze bieten jetzt ein FraudGPT-KI-Tool an, mit dem Spear-Phishing-E-Mails, nicht nachweisbare Malware und Phishing-Seiten erstellt, anfällige Websites identifiziert und sogar Tutorials zu Hacking-Techniken angeboten werden.
Die Inhalte, die zum Training von LLMs verwendet werden und auf die möglicherweise ohne Zustimmung zugegriffen wird und die für das Modelltraining verwendet werden, können auch personenbezogen und sensible Daten sowie urheberrechtlich geschützte oder proprietäre Inhalte enthalten. Da diese privaten Informationen alle Teil der Inhalte sind, aus denen die KI bei der Generierung von Inhalten schöpft, besteht das sehr reale Risiko, dass die Ergebnisse versehentlich sensible Daten oder private Informationen preisgeben.
Anbieter generativer KI bieten möglicherweise keine Möglichkeit für Einzelpersonen oder Organisationen, zu überprüfen, ob ihre personenbezogenen oder proprietären Daten zu Trainingszwecken gespeichert oder verwendet wurden, oder zu verlangen, dass diese Daten gemäß den Richtlinien für das „Recht auf Vergessenwerden“ oder das „Recht auf Löschung“ aus staatlichen Vorschriften wie der Datenschutz-Grundverordnung der EU (DSGVO) gelöscht werden. LLM-Training beinhaltet außerdem häufig die Aggregation und Nutzung von Daten aus verschiedenen Regionen oder Ländern. Dies kann zu Szenarien führen, die potenziell die Vorschriften zur Datensouveränität gefährden.
Generative KI hat zahlreiche Anwendungsmöglichkeiten für Organisationen und Branchen, und die sinnvolle Einbindung von GenAI in geeignete Arbeitsabläufe kann Unternehmen einen Wettbewerbsvorteil verschaffen. Zu diesen Anwendungen gehören:
Generative KI-Sicherheit ist eine Reihe von Praktiken und Maßnahmen, die implementiert werden, um potenzielle Sicherheitsrisiken und Herausforderungen zu bewältigen, die mit der Entwicklung, der Bereitstellung und der Nutzung von KI-basierten Anwendungen verbunden sind. Mit der zunehmenden Verbreitung und Komplexität dieser Technologien werden Sicherheitsfragen immer wichtiger, zumal KI-Workloads zu einer Hauptangriffsfläche für Cyberkriminelle geworden sind. Eine eingehende Untersuchung der Sicherheitsrisiken, die mit der Bereitstellung und der Verwaltung von KI-Anwendungen verbunden sind, finden Sie in den OWASP Top 10 für Anwendungen mit großen Sprachmodellen, die darauf abzielen, das Bewusstsein für ihre Schwachstellen zu schärfen, Abhilfestrategien vorzuschlagen und die Sicherheitslage von LLM-Anwendungen zu verbessern.
Obwohl GenAI extrem leistungsfähig und fast magisch erscheinen mag, nutzt sie einige der gleichen Infrastrukturen, Schnittstellen und Softwarekomponenten wie herkömmliche Workloads und birgt daher die gleichen Risiken, wie z. B. Einschleusungen und Angriffe, die schwache Authentifizierungs- und Autorisierungskontrollen umgehen. Für den effektiven Betrieb anspruchsvoller generativer KI-Modelle ist eine zuverlässige, hochleistungsfähige und sichere Infrastruktur erforderlich.
Zu den Angriffen auf die Infrastruktur gehören auch Denial-of-Service (DoS)-Angriffe, bei denen Angreifer Hardware-Ressourcen wie CPUs, Arbeitsspeicher oder Speicher überlasten, um die Ausführung generativer KI-Workloads zu stören. Diese Angriffe, bei denen die Ressourcen erschöpft sind, können zu Leistungseinbußen oder Systeminstabilität führen, was die Verfügbarkeit und Zuverlässigkeit des KI-Systems beeinträchtigt und die Fähigkeit des Modells, zu lernen und auf Benutzeraufforderungen zu reagieren, gefährdet.
Der unberechtigte Zugriff auf die KI-Systeminfrastruktur stellt ebenfalls eine erhebliche Bedrohung für GenAI-Workflows dar und kann sich auf die Vertraulichkeit und Integrität des Systems auswirken. Das Eindringen in die Systeminfrastruktur kann zu böswilligen Aktivitäten wie Datendiebstahl, Unterbrechung von Diensten oder Einfügen von bösartigem Code führen. Dies gefährdet nicht nur die Sicherheit der KI-Modelle und -Daten, sondern kann auch zur Generierung und Verbreitung von ungenauen oder schädlichen Ergebnissen führen.
Der Ausgangspunkt für jede GenAI-Anwendung sind die Trainingsdaten, die von maschinellen Lernmodellen verwendet werden, um gewünschte Muster zu erkennen, Vorhersagen zu treffen und Aufgaben auszuführen. Damit ein LLM hochgradig leistungsfähig ist, müssen die Daten, mit denen es trainiert wird, ein breites und vielfältiges Spektrum an Domänen, Genres und Quellen abdecken. Der Modelltrainingsprozess ist jedoch anfällig für Manipulation und Angriffe, unabhängig davon, ob vorgefertigte handelsübliche Modelle oder maßgeschneiderte Modelle verwendet werden, die auf benutzerdefinierten Datensätzen trainiert werden.
Adversarial Attacks beinhalten die absichtliche Manipulation von Eingabedaten, um die Leistung generativer KI-Modelle zu täuschen oder zu beeinträchtigen – ein Prozess, den OWASP als „Training Data Poisoning“ (Vergiftung von Trainingsdaten) bezeichnet. Dazu gehört auch die Manipulation von Daten, um Schwachstellen, Hintertüren oder Verzerrungen einzuführen, die die Sicherheit, die Effektivität oder das ethische Verhalten des Modells beeinträchtigen könnten. Diese Schwachstellen führen auch zu Angriffsvektoren, die böswillige Akteure ausnutzen können, um sich unberechtigten Zugriff auf sensible Informationen zu verschaffen. Kompromittierte Modellversorgungsketten können zu verzerrten oder unzuverlässigen Ergebnissen, Datenschutzverletzungen und der Ausführung von nicht autorisiertem Code führen. Dies ist für GenAI-Anwendungen besonders besorgniserregend, da sie umfangreiche Plug-in-Ökosysteme verwenden.
GenAI-Anwendungen verwenden LLMs, die auf der Grundlage von Trainingsdatensätzen, neuronalen Netzen und Deep-Learning-Architekturen Ausgaben generieren, um Antworten auf Benutzeraufforderungen zu generieren. KI-Modelle dienen als Grundlage für die Identifizierung von Mustern, Strukturen und Beziehungen innerhalb vorhandener Daten, die dazu dienen, neue Ausgaben auf der Grundlage dieses Verständnisses zu generieren.
KI-Modelle sind für eine Vielzahl von Angriffen anfällig, darunter Prompt Injection und andere Eingabebedrohungen, die LLMs durch die Eingabe sorgfältig gestalteter Aufforderungen manipulieren, die das Modell dazu bringen, vorherige Anweisungen zu ignorieren oder unbeabsichtigte Aktionen auszuführen. Prompt Injections gehören zu den häufigsten Ursachen für Fehlinformationen und gefälschte Inhalte, die von KI-Modellen generiert werden. GenAI-Anwendungen sind auch anfällig für Schwachstellen wie Server-Side Request Forgery (SSRF), die es Angreifern ermöglicht, unbeabsichtigte Anforderungen auszuführen oder auf eingeschränkte Ressourcen zuzugreifen, und Code-Ausführung aus der Ferne (Remote Code Execution, RCE), die die Anwendung dazu bringen kann, bösartigen Code oder andere Aktionen auf dem zugrunde liegenden System auszuführen.
Der Schutz von GenAI-Systemen erfordert einen mehrschichtigen Sicherheitsansatz. Dieser sollte robuste Authentifizierungs- und Autorisierungsprotokolle beinhalten, einschließlich strenger Zugriffskontrollen, um sicherzustellen, dass nur autorisiertes Personal Zugriff auf kritische Komponenten des Systems hat. Implementieren Sie ein proaktives Schwachstellenmanagement, einschließlich regelmäßiger Software-Updates und kontinuierlicher Überwachung zur frühzeitigen Erkennung und Verhinderung von Eindringungsversuchen. Um DoS-Angriffen entgegenzuwirken, bauen Sie Redundanz in das System ein, einschließlich der Verwendung von Backup-Servern und ausfallsicheren Protokollen, um eine dauerhafte Verfügbarkeit der Verarbeitung zu gewährleisten. LLMs können auch Denial-of-Service-Angriffen ausgesetzt sein, da Benutzeraufforderungen Token erzeugen und LLMs feste Kontextfenster haben, die gezielt eingesetzt werden können, um Systemressourcen zu erschöpfen.
Organisationen sollten strenge Überprüfungsprozesse implementieren, um die Lieferkette von Trainingsdaten zu verifizieren, und nur vortrainierte Modelle aus vertrauenswürdigen Quellen auswählen. Da Daten von schlechter Qualität und Verzerrungen in den Trainingsdaten die Fähigkeit des Modells beeinträchtigen können, genaue Darstellungen zu erlernen und verlässliche Ergebnisse zu produzieren, ist die Vorverarbeitung von Daten vor der Einspeisung in ein generatives Modell für eine effektive GenAI von entscheidender Bedeutung. Die Feinabstimmung von Modellen ist in vielen regulierten Branchen ebenfalls von entscheidender Bedeutung. Techniken wie Datenbereinigung, -normalisierung und -erweiterung sowie die Erkennung und Abschwächung von Verzerrungen können dazu beitragen, Fehler und Datenvergiftung zu vermeiden.
Implementieren Sie robuste Zugriffskontrollen, Verschlüsselungsmethoden und sichere Bereitstellungspraktiken – einschließlich Netzwerkisolation und ordnungsgemäße Firewall-Konfigurationen – um generative KI-Modelle vor potenziellen Sicherheitsbedrohungen zu schützen. Um Prompt Injections zu verhindern, setzen Sie Techniken wie Prompt-Bereinigung, Eingabevalidierung und Prompt-Filterung ein, um sicherzustellen, dass das Modell nicht durch böswillig erstellte Eingaben manipuliert wird. Das Risiko der unbefugten Code-Ausführung kann durch die Anwendung sicherer Codierungspraktiken, die Durchführung gründlicher Code-Prüfungen und die Verwendung von Laufzeitschutzmaßnahmen wie Code-Sandboxing verringert werden. Prompt Injections stellen eines der schwerwiegendsten und kompliziertesten Risiken von GenAI-Anwendungen dar.
Da die Verarbeitung von generativen KI-Modellen ressourcenintensiv sein kann, ist die Optimierung von generativen KI-Modellen für eine verbesserte Leistung und Effizienz ein wichtiger Schritt, um Modelle schneller, skalierbarer und energieeffizienter zu machen.
Multi-Cloud-Umgebungen sind zur Grundlage für KI-gestützte Anwendungen geworden, da sie KI-Workloads und Ökosystem-Plug-ins über verteilte Umgebungen hinweg verbinden können. Multi-Cloud-Networking (MCN) bietet die Flexibilität, Ressourcen dynamisch hoch- oder herunterzuskalieren, je nach den Rechenanforderungen generativer KI-Workloads, einschließlich Hardware-Beschleunigern wie Grafikprozessoren (GPUs), wobei Ressourcen von verschiedenen Cloud-Anbietern in die Datenverarbeitung integriert werden, um die Leistung zu optimieren und Verzögerungen zu minimieren. Der Einsatz von GenAI-Modellen über mehrere Cloud-Regionen hinweg ermöglicht eine geografische Verteilung der Verarbeitung, kürzere Latenzzeiten und verbesserte Reaktionszeiten, was besonders für verteilte Echtzeit- oder interaktive KI-Anwendungen wichtig ist. Edge-KI entwickelt sich zu einer unschätzbaren Methode, um das Benutzererlebnis zu verbessern. Die regionale Verteilung von GenAI-Modellen kann es Organisationen auch ermöglichen, Daten unter Einhaltung der Anforderungen an die Datensouveränität zu speichern und zu verarbeiten.
Die Container-Orchestrierungsplattform Kubernetes ist der De-facto-Standard für die Ausführung von GenAI-Workloads und stellt die Infrastruktur für die Ausführung und Skalierung von KI-Modellen in Containern bereit, um eine hohe Verfügbarkeit und effiziente Ressourcennutzung zu gewährleisten. Kubernetes fungiert als Orchestrator, der die Bereitstellung und Überwachung verschiedener Komponenten innerhalb der KI-Anwendung verwaltet und sicherstellt, dass KI-Modelle, Datenverarbeitungspipelines und andere Dienste effizient verwaltet und skaliert werden können. MCN und Eingangsdatencontroller sind aufgrund der verschiedenen Kubernetes-Implementierungen und der Notwendigkeit, Workloads einheitlich bereitzustellen und den Datenverkehr sicher zu leiten sowie Inferenzen zu verteilen, von entscheidender Bedeutung.
APIs stellen das Bindeglied für verschiedene Teile der KI-Anwendung dar, um Daten und Anweisungen auszutauschen, sodass verschiedene Komponenten und Dienste miteinander kommunizieren können. GenAI-Plug-in-Ökosysteme sind beispielsweise über API-Aufrufe miteinander verbunden. Kubernetes-Dateneingangslösungen bieten integrierte Funktionen für Lastausgleich, Ratenbegrenzung und Zugriffskontrolle, die den Datenverkehr sicher auf mehrere Pods verteilen, um die Gesamtverarbeitungsleistung von KI-Workloads zu verbessern.
Das Gleichgewicht zwischen Ausgabegeschwindigkeit und -qualität ist bei der GenAI-Optimierung oft mit Kompromissen verbunden. Um qualitativ hochwertige Ergebnisse zu erzielen, sind in der Regel komplexere und ressourcenintensivere Modelle und Berechnungen erforderlich, während die Optimierung der Leistung zu Modellvereinfachungen führen kann, die sich auf die Qualität der generierten Inhalte auswirken können. Komplexere Modelle können auch längere Trainingszeiten erfordern und zu einer langsameren Inferenz führen, was sich sowohl auf die Geschwindigkeit des Trainingsprozesses als auch auf die Leistung von Echtzeitanwendungen auswirkt. Dies ist insbesondere ein Problem für GenAI-Modelle, die sich an dynamische Umgebungen anpassen müssen, was eine kontinuierliche Optimierung erfordert und die Aufrechterhaltung des Gleichgewichts zwischen Qualität und Leistung erschwert. Neben GPUs können auch allgemeine Zentralprozessoren (Central Processing Units, CPUs) und Data Processing Units (DPUs) für die Verarbeitung von Aufgaben verwendet werden, was die Bedeutung von intelligenter Datenverkehrsverwaltung und Ressourcenpooling unterstreicht.
Die Optimierung generativer KI-Modelle erfordert eine ausgewogene Berücksichtigung – und Kombination – mehrerer Faktoren.
Beim Model Pruning werden redundante oder weniger wichtige Parameter identifiziert und aus dem Modell entfernt, um die Größe und die Rechenanforderungen zu reduzieren, mit dem Ziel, ein kompakteres Modell zu erstellen und gleichzeitig die Leistung zu erhalten. Die Quantisierung reduziert den Speicherbedarf und die Rechenkomplexität von GenAI-Modellen, indem numerische Werte mit geringerer Bitpräzision dargestellt werden, z. B. durch die Konvertierung von Gleitkommazahlen in Festkomma- oder Integer-Darstellungen mit geringerer Präzision. Dies kann zu einem geringeren Speicherbedarf und einer höheren Effizienz bei der Bereitstellung und Speicherung von Modellen führen.
Transfer Learning ist eine Technik des maschinellen Lernens, bei der ein für eine Aufgabe trainiertes Modell an eine andere, verwandte Aufgabe angepasst wird, wodurch die für das Training benötigte Zeit und die Rechenressourcen erheblich reduziert werden, insbesondere bei tiefen und komplexen Modellen. Transfer Learning erleichtert die effiziente Wiederverwendung von Wissen und ermöglicht die Optimierung generativer KI-Modelle für spezifische Anwendungen, ohne umfangreiche Rechenressourcen zu benötigen.
Die Verteilung von Modelltraining und -inferenz auf mehrere Prozessoren, Geräte oder Clouds optimiert das Modelltraining und das Benutzererlebnis durch die Nutzung paralleler Verarbeitungsmöglichkeiten. Darüber hinaus kann die Anpassung der Modellarchitektur und des Trainingsprozesses an die individuellen Fähigkeiten der Hardware (z. B. die spezifische CPU oder GPU, auf der das Modell ausgeführt wird) den Trainings- und Inferenzprozess für eine bessere Leistung optimieren, insbesondere wenn die Inferenz in der Nähe des Benutzers durchgeführt werden kann.
Generative KI hat das Potenzial, große Wettbewerbsvorteile zu bieten, aber damit Organisationen die Vorteile ohne Risiko voll ausschöpfen können, müssen sie die notwendigen Schritte unternehmen, um KI-Workloads in verschiedenen, verteilten Umgebungen zu optimieren und abzusichern. Dies erfordert nicht nur die Verbesserung der Effizienz von KI-Workloads, sondern auch die Verwaltung komplexer Kubernetes-Ökosysteme, die nahtlose und sichere Integration von APIs und die effektive Verwaltung von Multi-Cloud-Netzwerken.
F5 optimiert die Leistung und Sicherheit moderner KI-Workloads und gewährleistet die konsistente Verteilung und den Schutz von generativen KI-Modellen und Daten in der gesamten verteilten Anwendungsumgebung, einschließlich Rechenzentren, öffentlicher Clouds, privater Clouds, Multi-Cloud-Umgebungen, nativer Kubernetes und Edge. F5 liefert eine zugrunde liegende, einheitliche Datenstruktur, die das Training, die Verfeinerung, die Bereitstellung und die Verwaltung von generativen KI-Modellen im großen Maßstab unterstützt und so eine nahtlose Benutzererfahrung gewährleistet und die Entscheidungsfindung in KI-gesteuerten Anwendungen in Echtzeit unterstützt.
F5 bietet eine Reihe integrierter Sicherheits-, Bereitstellungs- und Leistungsoptimierungslösungen, die die Komplexität von generativer KI reduzieren und gleichzeitig eine vorhersehbare Skalierung und Leistung mit zentraler Sichtbarkeit und Verwaltung über ein Single Pane of Glass.
Durch die Optimierung der Effizienz, die Verringerung der Latenz und die Verbesserung der Reaktionszeiten helfen F5-Technologien Organisationen dabei, die Vorteile der generativen KI sicher zu nutzen und gleichzeitig eine nahtlose Benutzererfahrung zu gewährleisten und die Flexibilität zu unterstützen, KI-Workloads überall einzusetzen.
LÖSUNGSÜBERSICHT
Distribute, Optimize and Secure Your AI Workloads with F5 › (Verteilen, optimieren und sichern Sie Ihre KI-Workloads mit F5 ›)
TECHNISCHER ARTIKEL
Securing Generative AI: Defending the Future of Innovation and Creativity › (Sicherung der generativen KI: Verteidigung der Zukunft von Innovation und Kreativität ›)