In der gesamten KI-Fabrikreihe von F5 haben wir KI-Fabriken vorgestellt und definiert, ihre Elemente untersucht und erläutert, wie sich Application und Sicherheitsoptionen auf die Leistung auswirken. In diesem Artikel, dem fünften unserer Reihe, untersuchen wir die entscheidende Rolle, die Multicloud-Netzwerke bei der Bereitstellung von Inferenzen und der Unterstützung der Datenbewegung für eine KI-Fabrik spielen, die F5 als massive Investition in Speicher, Netzwerke und Computertechnik definiert, die Trainings- und Inferenzanforderungen mit hohem Volumen und hoher Leistung erfüllt.
Verteilte Verbindungspunkte bilden das Herzstück von KI-Fabriken und steuern den Betrieb der Speicher-, Netzwerk- und Computerinfrastruktur. Bei der Konzeption ihrer KI-Fabriken werden sich viele Dienste wahrscheinlich physisch im selben Rechenzentrum oder in der Nähe davon befinden. Es gibt jedoch auch Dienste, die geografisch verteilt sein können. Dienste wie Front-End Applications, Inferenzdienste und erforderliche Modelle bieten die beste Leistung, wenn sie so konzipiert sind, dass sie sich in der Nähe der Orte befinden, an denen sie genutzt werden müssen. Darüber hinaus können Retrieval-Augmented Generation (RAG) -Wissenskorpusdaten beteiligt sein, wenn das Design RAG erfordert, aber vorerst konzentrieren wir uns auf Front-End, Inferenzdienste und Modellbereitstellung.
Inferenzdienste und Front-End Applications
Laut Googles Liste von 185 realen Anwendungsfällen generativer KI aus weltweit führenden Unternehmen haben wir festgestellt, dass viele dieser Unternehmen auf strategische Standorte angewiesen sind, um KI-Workloads für globale Kunden bereitzustellen. Die verteilte Architektur einer KI-Fabrik muss im Mittelpunkt stehen und kuratiert werden, wenn es um die Erfahrung des Endbenutzers geht. Im „State of Application Strategy“-Bericht 2024 von F5 wurde festgestellt, dass 88 % der Organisationen mit einem hybride Cloud Modell arbeiten. Außerdem wurde berichtet, dass 94 % der Befragten mit Multicloud-Herausforderungen konfrontiert sind.
Was ist also der beste Weg, um eine sichere und optimierte Kommunikation zwischen den KI-Fabriken und den Instanzen, in denen Inferenzen verwendet werden, zu ermöglichen? Die Antwort dreht sich um die Vernetzung. Um die Gründe dafür zu verstehen, werfen wir einen Blick auf ein Schlagwort der Branche, das außerhalb der Welt der Dienstanbieter weitgehend übersehen wurde: Softwaredefinierte Netzwerke (SDN), die für die Sicherheit von 3GPP-Architekturen wie 4G und 5G von größter Bedeutung waren. Der Sicherheitserfolg der 3GPP-Architekturen ist auf die Einhaltung einer strikten Application zurückzuführen.
SDNs bieten eine leistungsstarke Lösung durch die Implementierung von Zero-Trust-Prinzipien auf Schicht 2 und 3, bei denen der Datenverkehr nicht an eine Application weitergeleitet werden kann, es sei denn, er wird über eine softwaredefinierte deterministische Routing-Infrastruktur überprüft und verarbeitet. Dadurch wird sichergestellt, dass jede Komponente einer Application sowohl lokal als auch global unabhängig skaliert werden kann, um optimale Leistung und Sicherheit zu erreichen. Darüber hinaus leiten SDNs den Application nach Namen statt nach IP-Adresse. Dadurch werden Probleme wie IP-Adressüberschneidungen gemildert und eine nahtlose Skalierung von Applications und Sicherheitslösungen über verschiedene Regionen und Umgebungen hinweg ermöglicht. Das explizite Routing und Tunneling innerhalb von SDNs bietet außerdem einen robusten Schutz gegen potenzielle Angriffe, da für einen unberechtigter Zugriff die Eigentümerschaft an den Ressourcen innerhalb des SDN sowie die Einhaltung strenger Kommunikationsprotokolle erforderlich ist.
Große Tier-1-Telekommunikationsunternehmen haben die Wirksamkeit dieser Prinzipien im großen Maßstab unter Beweis gestellt und es ist sinnvoll, sie auf noch größere Arbeitslasten in Multicloud-Netzwerken (MCN) für KI-Fabriken anzuwenden.
Das klingt einfach, oder? Das Smartphone, auf dem Sie dies möglicherweise lesen, verfügt wahrscheinlich über eine GPU, 5G-Konnektivität und einen Passcode. Für den privaten Sicherheitsdienst sind Sie doch bestens gerüstet, oder? Naja, nicht ganz. Wir werden uns zunächst drei Punkte ansehen. Bedenken Sie jedoch, dass dies nur ein Anfang ist und dass beim Entwerfen und Modellieren der Bedrohungslandschaft für Ihre KI-Fabrik noch mehr aufgedeckt werden.
Lassen Sie uns zunächst über die Geschwindigkeit sprechen. Als generative KI Ende 2022 mit ChatGPT erstmals für Aufsehen sorgte, konzentrierten wir uns auf Textdaten. Im Jahr 2024 sehen wir jedoch zunehmend Anwendungsfälle rund um andere Modalitäten wie Bilder, Videos, Text und Daten, die auf der Grundlage von Spezialisierungen in die Flow- und Application eingemischt werden. In einer verteilten KI-Fabrikarchitektur ist es möglicherweise nicht wünschenswert oder machbar, alle Modelle überall einzusetzen. Es kann auf Faktoren wie Datengravitation, Leistungsgravitation oder Rechenleistungsanforderungen ankommen. Hier können Sie eine Hochgeschwindigkeits-Netzwerkverbindung auswählen, um Lücken zu überbrücken und Leistungsprobleme zu mindern, die auftreten, wenn Sie abhängige Dienste voneinander trennen.
Befassen wir uns auch mit dem Modelldiebstahl, einem der Top-10-Risiken von OWASP für große Sprachmodelle (LLMs) und generative KI-Apps . Jedes Unternehmen, das generative KI nutzen möchte, um einen Wettbewerbsvorteil zu erlangen, wird sein geistiges Eigentum in das System integrieren. Dies kann durch das Trainieren eines eigenen Modells mit Unternehmensdaten oder durch die Feinabstimmung eines Modells geschehen. In diesen Szenarien schafft Ihre KI-Fabrik, genau wie Ihre anderen Geschäftssysteme, Werte durch ein Modell, das Sie schützen müssen. Um Modelldiebstahl in einer verteilten Architektur zu verhindern, müssen Sie sicherstellen, dass dieses Modell, Aktualisierungen des Modells und Datenquellen, auf die die Application zugreifen muss, verschlüsselt sind und über angewendete Zugriffskontrollen verfügen.
Betrachten wir abschließend die Modell-Denial-of-Service-Attacke, die sich ebenfalls in den OWASP Top 10 für LLMs und generative KI-Apps befindet. Mit zunehmendem Vertrauen in KI Applications steigt deren Nutzung in kritischen Systemen – ganz gleich, ob es sich dabei um ein wichtiges umsatzsteigerndes System für Ihr Unternehmen oder um lebenserhaltende Systeme, wie beispielsweise im Gesundheitswesen, handelt. Der Zugriff auf das Front-End und die Inferenz muss so gestaltet sein, dass jeder mögliche Zugang stabil, kontrolliert und gesichert ist. Diese Zugriffsszenarien können sowohl auf den Endbenutzerzugriff als auch auf Inferenzdienste zurück zur zentralen KI-Fabrik angewendet werden.
Sichere Multicloud-Netzwerklösungen ermöglichen die notwendige Konnektivität, Sicherheit und Sichtbarkeit, um die verteilten Aspekte der KI-Fabrikarchitektur zu entwerfen. F5 Distributed Cloud Network Connect erfüllt alle oben genannten Punkte und noch mehr. Distributed Cloud Network Connect bietet außerdem einzigartige Edge-Lösungen für Kunden, die universelle Konnektivität ermöglichen, unabhängig davon, ob Sie Inferenzen in der öffentlichen Cloud, in Ihren eigenen oder co-lokalisierten Rechenzentren oder am Edge auf Hardware Ihrer Wahl ausführen möchten. Die Bereitstellung ist einfach und schnell, und der Kundenrand stellt die Konnektivität selbstständig her.
Die Gestaltung Ihrer KI-Fabrik ist keine Kleinigkeit und Unternehmen möchten möglichst schnell von den Vorteilen der KI profitieren und gleichzeitig maximale Sicherheit gewährleisten. Durch die Fähigkeit, mehrere sichere Funktionen Ihrer KI-Fabrik zuverlässig einzusetzen, sind Innovationen schneller möglich. Zudem bleibt Zeit, um sich auf die Aspekte der KI-Fabriken zu konzentrieren, die eine echte Geschäftsdifferenzierung und einen Wettbewerbsvorteil bringen. Wenn Sie mehr über Multicloud-Networking erfahren möchten, sehen Sie sich unsere Brightboard-Lektion an oder erkunden Sie F5 Distributed Cloud Network Connect .
Der Fokus von F5 auf KI endet hier nicht – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .
Möchten Sie mehr über KI-Fabriken erfahren? Entdecken Sie weitere in unserer AI Factory-Blogserie: