Im Sommer 2024 erklärte Nvidia-Gründer und CEO Jensen Huang: „Eine neue Art von KI-Fabriken in Rechenzentren produziert ein neues Produkt: künstliche Intelligenz.“ Betrachten wir KI also so, als wäre sie ein physisches Gut. Dabei werden Bilder des River Rouge Complex von Ford in Erinnerung gerufen – eine Verkörperung der vertikalen Integration und Industrialisierung. Eisen und Gummi gingen auf der einen Seite hinein, Ford-Automobile kamen auf der anderen Seite heraus. Mit seinen eigenen Docks, 100 Meilen innerstädtischem Eisenbahnnetz, einem eigenen Elektrizitätswerk und sogar seinen eigenen integrierten Stahl-, Glas- und Papierfabriken war The Rouge 24 Stunden am Tag in Betrieb und produzierte fast 1,5 Millionen Autos pro Jahr.
In ähnlicher Weise verbrauchen die KI-Fabriken von heute und morgen, die Trainings- und Inferenzmodelle mit hohem Volumen und hoher Leistung bereitstellen, enorme Mengen an Rohzutaten. Nämlich Daten. Strukturiert, unstrukturiert, Video, Text und mehr. Diese Fabriken wandeln die Daten in tokenisierte Ausgaben um, die in unzähligen Anwendungen genutzt werden können. Und genau wie The Rouge Complex eine präzise Kontrolle über jede Produktionsphase benötigte, erfordern KI-Workloads robuste Verkehrsmanagementsysteme für die Aufnahme, Verarbeitung und Bereitstellung von Daten – mit einem Wort: die Logistik. Die richtigen Verkehrsmanagementlösungen geben KI-Fabriken die Möglichkeit, Rohzutaten vom Feld zu holen und nutzbar zu machen. Mit den richtigen Logistiktools können Teams einen nahtlosen Datenfluss, einen hohen Durchsatz, geringe Latenzzeiten und Sicherheit gewährleisten – vergleichbar damit, in jeder Phase eines Fließbands reibungslos laufen zu lassen.
Im Jahr 2020 skizzierte die Harvard Business Review, wie die mit Alibaba verbundene Ant Group mithilfe ihrer KI-Fabrik verwertbare Informationen erzeugt, um „eine Vielzahl von Geschäften zu verwalten und dabei [über] zehnmal so viele Kunden zu bedienen wie die größten US-Banken – und das mit weniger als einem Zehntel der Mitarbeiterzahl.“ Ebenso überzeugend ist die Art und Weise, wie Ant Group den Aufbau einer KI-Fabrik konzipiert:
„Vier Komponenten sind für jede Fabrik unverzichtbar. Die erste ist die Datenpipeline, der halbautomatische Prozess, der Daten auf systematische, nachhaltige und skalierbare Weise sammelt, bereinigt, integriert und schützt. Der zweite Bereich sind Algorithmen, die Vorhersagen über zukünftige Zustände oder Aktionen des Unternehmens erstellen. Die dritte ist eine Experimentierplattform, auf der Hypothesen zu neuen Algorithmen getestet werden, um sicherzustellen, dass ihre Vorschläge die beabsichtigte Wirkung haben. Der vierte ist die Infrastruktur, also die Systeme, die diesen Prozess in Software einbetten und mit internen und externen Benutzern verbinden.“
Zu Beginn unserer KI-Fabrik-Reihe definierte F5 eine KI-Fabrik als eine riesige Investition in Speicher-, Netzwerk- und Computertechnik, die Trainings- und Inferenzanforderungen mit hohem Volumen und hoher Leistung erfüllt. Deshalb sind die erste und vierte Komponente auf der Liste der Ant Group besonders interessant: Die Herausforderung, die erforderlichen Systeme für die sichere und effiziente Verwaltung der von KI-Modellen aufgenommenen Daten zu etablieren, wirft die Frage auf, wie KI-Fabriken die Infrastruktur um sich herum entwickeln sollten, um Wert zu schaffen.
Das Verkehrsmanagement für die Aufnahme von KI-Daten ist der kontinuierliche Prozess, durch den KI-Datenverkehr mit mehreren Milliarden Parametern und vielen Medien verwaltet und zu Zwecken des maschinellen Lernens und Trainings in eine KI-Fabrik transportiert wird. Hier kommt eine leistungsstarke Verkehrsmanagementlösung ins Spiel, um den Verkehr in die KI-Fabrik zu bringen. Ohne eine solche Lösung müssen die Teams möglicherweise schnell Verbindungen wiederverwenden, um den Datenverkehr aufrechtzuerhalten, oder sie stoßen an die Grenzen der Speicherinfrastruktur. Beides ist nicht ideal für die Anforderungen an die Datenübertragung mit hoher Kapazität und geringer Latenz, die KI-Fabriken stellen, um mit der gewünschten, optimierten Geschwindigkeit und im gewünschten Umfang zu laufen.
Verwaltung des KI-Datenverkehrs zu, durch und zwischen KI-Fabriken.
Doch die Fortschritte auf diesem Gebiet stagnieren keineswegs. Immer komplexere KI-Modelle erfordern immer häufigere Dateneingaben. Dies führt zu einer Datengravitationsherausforderung, da die Platzierung der Daten in einer Cloud oder vor Ort innerhalb eines KI-Modells eine große Rolle spielt. Eine KI-Fabrik, die der Anziehungskraft künftiger KI-Datenanforderungen standhält, benötigt eine skalierbare Infrastruktur, um mit den Anforderungen nach schnelleren Erkenntnissen aus den empfangenen Daten Schritt zu halten. Die Infrastruktur einer KI-Fabrik kann letztlich über Erfolg und Geschäftswert des von ihr unterstützten KI-Modells entscheiden. Dieser schnelle Anstieg beim Konsum von Rich Media kann den Netzwerkverkehr und die damit verbundenen Kosten erheblich steigern, wenn die Verarbeitung über einige Cloud-Anbieter erfolgt. Unternehmen, die sich mit dieser Situation auseinandersetzen müssen, stehen daher vor einer doppelten Herausforderung: Sie müssen einerseits den für effiziente KI-Lernmodelle erforderlichen Hochgeschwindigkeitsdatendurchsatz aufrechterhalten und andererseits die Komplexität und Kosten bewältigen, die mit der Datenübertragung und -verarbeitung in der Cloud verbunden sind.
Eine sorgfältige Prüfung der vier im ersten Artikel zu KI-Fabriken beschriebenen Bereitstellungsarten für KI-Fabriken (KI-SaaS, in der Cloud gehostet, selbst gehostet oder am Edge gehostet) kann Unternehmen dabei helfen, diese Komplexitäten zu bewältigen, indem sie die Abhängigkeit von der Cloud-Bandbreite eliminieren oder verringern. Durch die lokale Datenverarbeitung wird nicht nur die Frage der Cloud-Bandbreite außer Acht gelassen. Darüber hinaus ermöglicht es die vollständige Kontrolle über sensible Trainingsdatensätze. Dadurch wiederum können gesetzliche Vorschriften (z. B. DSGVO, HIPAA oder PCI DSS) leichter eingehalten werden, da Unternehmen die Speicherung, den Zugriff und die Verarbeitung von Daten kontrollieren und gleichzeitig die Datengefährdung minimieren können, indem vertrauliche Informationen innerhalb des sicheren Netzwerks eines Unternehmens verbleiben.
KI-Datenverkehr und Anwendungsverkehr interagieren auf ähnliche Weise mit F5 BIG-IP Local Traffic Manager (LTM) und Hardwarelösungen der nächsten Generation . Dies bedeutet, dass Teams ebenso wie bei der Optimierung herkömmlicher Anwendungsverkehrsflüsse ihre KI-Datenverkehrsflüsse mit Tools wie dem FastL4 -Profil optimieren und so die Leistung und den Durchsatz virtueller Server erhöhen können. Sie können TCP-Optimierungen nutzen, um die Art und Weise zu optimieren, wie Systeme mit TCP-Verbindungen umgehen, was für die Netzwerkleistung entscheidend ist. Sie können sogar OneConnect von BIG-IP einsetzen und so den Netzwerkdurchsatz erhöhen, indem sie die zwischen ihren BIG-IP-Systemen und Back-End-Pool-Mitgliedern erstellten Verbindungen effizient verwalten. Organisationen, die nach einer Lösung zur Verteilung des KI-Datenverkehrs zwischen KI-Fabriken suchen, müssen nicht lange suchen, um eine zu finden. F5 entwickelt seit über zwei Jahrzehnten Tools zur Optimierung des App-Verkehrsmanagements, wodurch BIG-IP LTM ideal für die Handhabung des KI-Datenaufnahmeverkehrs geeignet ist.
KI-Anwendungen sind die modernsten modernen Anwendungen. Ohne eine robuste, vielseitige Verkehrsmanagementlösung verkümmern nutzbare Daten vor Ort und der Wert, den ein KI-Modell daraus ziehen kann, verpufft. Das Rouge hatte seine Docks und kilometerlange Bahngleise, KI-Fabriken verfügten über F5-Lösungen wie BIG-IP.
Der Fokus von F5 auf KI endet hier nicht – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .
Möchten Sie mehr über KI-Fabriken erfahren? Entdecken Sie weitere in unserer AI Factory-Blogserie: