BLOG

Was ist eine KI-Fabrik?

Hunter Smit Miniaturbild
Jäger Smit
Veröffentlicht am 11. Oktober 2024

Als ChatGPT im November 2022 veröffentlicht wurde, waren die von uns gestellten Fragen und eingegebenen Eingabeaufforderungen einfach: „Erzähl mir eine Geschichte über X“ und „Schreibe eine Erzählung zwischen Person A und Person B zum Thema Z.“ Durch diese Fragen und erste Interaktionen mit GPT-3.5 versuchten wir damals herauszufinden, welche Auswirkungen diese neue, zukunftsweisende Technologie auf unser tägliches Leben haben würde. Jetzt, Ende 2024, ergänzt KI unser Leben: Sie hilft uns beim Debuggen und Schreiben von Code, beim Kompilieren und Zusammenfassen von Daten und beim Fahren in autonomen Fahrzeugen, um nur einige Beispiele zu nennen. Dies sind Ergebnisse einer modernen KI-Fabrik – und wir stehen erst am Anfang.

Dieser Artikel, der erste einer Reihe über KI-Fabriken, untersucht die Komponenten einer KI-Fabrik und wie die verschiedenen Elemente zusammenarbeiten, um KI-gesteuerte Lösungen im großen Maßstab zu generieren.

KI-Fabriken definieren

Im Zuge der Entwicklung der KI ist das Konzept einer KI-Fabrik als Analogie für die Erstellung, Verfeinerung und Bereitstellung von KI-Modellen und -Diensten entstanden. Ähnlich einer herkömmlichen Produktionsanlage, die Materialien in Fertigerzeugnisse umwandelt, handelt es sich bei einer KI-Fabrik um eine riesige Investition in Speicher-, Netzwerk- und Computertechnik, die Trainings- und Inferenzanforderungen mit hohem Volumen und hoher Leistung erfüllt.

In diesen Fabriken arbeiten Netzwerke aus Servern, Grafikprozessoren (GPUs), Datenverarbeitungseinheiten (DPUs) und spezialisierter Hardware zusammen, um riesige Datenmengen zu verarbeiten und komplexe Algorithmen auszuführen, die KI-Modelle trainieren, um ein hohes Maß an Genauigkeit und Effizienz zu erreichen. Diese Infrastrukturen sind sorgfältig darauf ausgelegt, die enorme Rechenleistung zu bewältigen, die für das Trainieren groß angelegter Modelle und deren Einsatz für Echtzeit-Inferenzen erforderlich ist. Sie enthalten erweiterte Speicherlösungen zum Verwalten und Abrufen riesiger Datensätze und gewährleisten so einen reibungslosen Datenfluss.

Lastausgleich und Netzwerkoptimierung maximieren Leistung und Ressourcennutzung, verhindern Engpässe und gewährleisten Skalierbarkeit. Durch diese Orchestrierung von Hardware- und Softwarekomponenten sind KI-Fabriken in der Lage, hochmoderne KI-Modelle zu produzieren und diese kontinuierlich zu verfeinern und sie an neue Daten und sich entwickelnde Anforderungen anzupassen. Letztendlich verkörpert eine KI-Fabrik die Industrialisierung der KI-Entwicklung und bietet die robuste Infrastruktur, die zur Unterstützung der nächsten Generation intelligenter Anwendungen erforderlich ist.

Warum sind KI-Fabriken wichtig?

Wie NVIDIA-CEO Jensen Huang auf der Salesforce Dreamforce 2024 sagte: „Zu keiner Zeit in der Geschichte hat sich die Computertechnologie schneller entwickelt als das Mooresche Gesetz “, und weiter: „Wir entwickeln uns viel schneller als das Mooresche Gesetz und können das Mooresche Gesetz wohl mühelos im Quadrat brechen.“

Der großflächige Einsatz von KI wird immer wichtiger, da Investitionen in KI als entscheidende Differenzierungsmerkmal auf dem Markt und Treiber der betrieblichen Effizienz dienen. Um dies zu erreichen, müssen Unternehmen kontinuierlich Modelle erstellen und verfeinern sowie Wissensspeicher und Echtzeitdaten integrieren. Das Konzept der KI-Fabrik unterstreicht, dass KI eine kontinuierliche Investition und nicht eine einmalige Anstrengung sein sollte. Es bietet Unternehmen einen Rahmen für die Operationalisierung ihrer KI-Initiativen und macht sie so anpassungsfähiger an sich ändernde Geschäfts- und Marktanforderungen.

Komponenten einer KI-Fabrik

Aufbauend auf unserer Expertise bei der Unterstützung von Kunden bei der Bereitstellung leistungsstarker, sicherer und moderner Anwendungsflotten im großen Maßstab hat F5 ein AI Reference Architecture Framework entwickelt. Angesichts der Tatsache, dass KI-Apps die modernsten modernen Apps sind, die über APIs stark vernetzt und hochgradig verteilt sind, befasst sich dieses Framework mit den kritischen Leistungs-, Sicherheits- und Betriebsherausforderungen, die für die Bereitstellung hochmoderner KI-Anwendungen unerlässlich sind.

Sieben KI-Bausteine

In unserer Referenzarchitektur haben wir sieben KI-Bausteine definiert, die zum Aufbau einer umfassenden KI-Fabrik erforderlich sind:

1. Schlussfolgerung

Beschreibt die Interaktion zwischen einer Front-End-Anwendung und einer Inferenzdienst-API; der Schwerpunkt liegt auf dem Senden einer Anfrage an ein KI-Modell und dem Empfangen einer Antwort. Dies legt den Grundstein für komplexere Interaktionen.

Schlussfolgerung

2. Retrieval-Augmented Generation

Verbessert die grundlegende Inferenz durch Hinzufügen von Orchestrierungs- und Abruferweiterungsdiensten für große Sprachmodelle (LLM). Es beschreibt detailliert, wie zusätzlicher Kontext aus Vektordatenbanken und Inhaltsspeichern abgerufen wird, der dann zum Generieren einer kontextangereicherten Antwort verwendet wird.

Abruferweiterungsdiagramm

3. RAG-Korpusmanagement

Konzentriert sich auf die für die Inferenz mit Retrieval Augmented Generation (RAG) erforderlichen Datenaufnahmeprozesse. Es umfasst die Normalisierung, Einbettung und Befüllung von Vektordatenbanken mit Daten sowie die Vorbereitung von Inhalten für RAG-Aufrufe.

Lappendiagramm

4. Feinabstimmung

Zielt darauf ab, die Leistung eines vorhandenen Modells durch Interaktion mit dem Modell zu verbessern. Es passt das Modell an, ohne es von Grund auf neu zu erstellen, und legt den Schwerpunkt auf das Sammeln von Daten aus Inferenz und Inferenz mit RAG zur Feinabstimmung von Arbeitsabläufen.

Feinabstimmungsdiagramm

5. Ausbildung

Dabei wird ein von Grund auf neues Modell erstellt, obwohl möglicherweise vorherige Prüfpunkte verwendet werden (erneutes Training). Es umfasst Datenerfassung, Vorverarbeitung, Modellauswahl, Auswahl der Trainingsmethode, Training und Validierung/Test. Ziel dieses iterativen Prozesses ist die Erstellung robuster, auf spezifische Aufgaben zugeschnittener Modelle.

Trainingsdiagramm

6. Integration externer Dienste

Verbindet die LLM-Orchestrierungsschicht mit externen Quellen wie Datenbanken und Websites. Es integriert externe Daten in Inferenzanforderungen, umfasst jedoch keine Aufgaben zur Dokumentvorverarbeitung wie Chunking und Einbettung.

Diagramm für externe Dienste

7. Entwicklung

Umfasst Workflows zum Entwickeln, Warten, Konfigurieren, Testen und Bereitstellen von KI-Anwendungskomponenten. Es umfasst Front-End-Anwendungen, LLM-Orchestrierung, Quellcodeverwaltung und CI/CD-Pipelines.

Entwicklung

Zusammen bilden diese Bausteine das Rückgrat einer KI-Fabrik. Jeder von ihnen spielt eine entscheidende Rolle bei der Erstellung, Bereitstellung und Verfeinerung von KI-Ergebnissen. Darüber hinaus bieten sich KI-Fabrik-Initiativen an, die eigenen Implementierungsstrategien für die meisten Bausteine selbst zu entwickeln (anstatt sie zu leasen oder auszulagern), was dazu führt, dass man aus den unten aufgeführten Bereitstellungsmodellen das selbst gehostete Modell auswählt.

Vier Einsatzmodelle

Für jeden dieser Bausteine müssen Kunden ein geeignetes Bereitstellungsmodell und eine entsprechende Implementierungsstrategie (eigenes, Leasing oder Outsourcing) auswählen und die optimale Referenzarchitektur zum Erreichen der Geschäftsziele ihrer KI-Initiativen definieren. Hier sind die Top 4:

  • Bei AI-SaaS wird eine Software-as-a-Service (SaaS)-Implementierung eines Inferenzdienstes verwendet, wobei der Dienstanbieter die Infrastruktur, Modellaktualisierungen und Skalierung verwaltet. Benutzer interagieren mit dem Dienst über APIs, ohne sich um die zugrunde liegende Wartung kümmern zu müssen. Dieses Bereitstellungsmodell ist ideal für Unternehmen, die Wert auf Benutzerfreundlichkeit und schnelle Integration ohne erheblichen Mehraufwand legen. Darüber hinaus ermöglicht es eine schnelle Skalierbarkeit und Zugriff auf die neuesten Funktionen und Verbesserungen.
  • Bei der Cloud-gehosteten Bereitstellung wird der Inferenzdienst mithilfe eines Cloud-Dienstanbieters (CSP) als Infrastructure as a Service (IaaS) oder Platform as a Service (PaaS) verwaltet. In diesem Modell ist der Benutzer für die Verwaltung des Dienstes, einschließlich Konfiguration, Skalierung und Wartung, verantwortlich, profitiert jedoch von der robusten Infrastruktur und den Tools des CSP. Dieses Modell bietet Flexibilität und Kontrolle und eignet sich daher für Organisationen mit spezifischen Anforderungen und technischem Fachwissen. Darüber hinaus ermöglicht es eine nahtlose Integration mit anderen Cloud-nativen Diensten und Tools.
  • Bei der selbstgehosteten Bereitstellung muss der Inferenzdienst in einem selbstverwalteten privaten Rechenzentrum oder Colocation-Dienst verwaltet werden. Dieses Modell bietet das höchste Maß an Kontrolle und Anpassung und ermöglicht es Organisationen, die Infrastruktur und den Service an ihre spezifischen Bedürfnisse anzupassen. Allerdings sind auch erhebliche Ressourcen für Wartung, Aktualisierungen und Skalierung erforderlich. Es wird häufig von Organisationen gewählt, die strenge Sicherheits-, Compliance- oder Leistungsanforderungen haben, die von Cloud-basierten Lösungen nicht erfüllt werden können.
  • Bei der Edge-gehosteten Bereitstellung werden KI- oder Machine-Learning-Dienste (ML) am Edge ausgeführt, beispielsweise in einem Einzelhandelskiosk, einem IoT-Gerät oder anderen lokalisierten Umgebungen. Dieses Modell reduziert die Latenz, indem es die Daten nahe an der Quelle verarbeitet, und eignet sich daher ideal für Echtzeitanwendungen und Szenarien, in denen die Internetverbindung eingeschränkt oder zeitweise unterbrochen ist. Es erfordert zwar eine robuste lokale Hardware- und Softwareverwaltung, bietet jedoch erhebliche Vorteile für Anwendungsfälle, die eine sofortige, lokale Entscheidungsfindung erfordern. Die Edge-gehostete Bereitstellung ist besonders in Branchen wie Einzelhandel, Fertigung und Gesundheitswesen wertvoll.

F5 liefert und sichert KI-Anwendungen überall

Die Funktionen von F5, auf die Sie sich tagtäglich bei der Anwendungsbereitstellung und -sicherheit verlassen, sind dieselben Funktionen, die für eine gut konzipierte KI-Fabrik von entscheidender Bedeutung sind. F5 BIG-IP Local Traffic Manager ermöglicht in Verbindung mit der speziell entwickelten Hardware F5 rSeries und VELOS die leistungsstarke Datenaufnahme für das KI-Training. F5 Distributed Cloud Network Connect für sichere Multicloud-Netzwerke verbindet unterschiedliche Datenstandorte und schafft einen sicheren Kanal von proprietären Daten zu KI-Modellen für RAG .

Der Fokus von F5 auf KI endet hier nicht – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .