BLOG

Die Leistung und Bedeutung der NVIDIA BlueField DPU für KI-Fabriken

Hunter Smit Miniaturbild
Jäger Smit
Veröffentlicht am 11. Dezember 2024

Während Unternehmen Innovationen beschleunigen und KI-gestützte und lebensverändernde Produkte wie selbstfahrende Autos oder große Sprachmodelle (LLMs) entwickeln, ist eine effiziente Infrastruktur von entscheidender Bedeutung für die Skalierung des Betriebs und die Wahrung der Wettbewerbsfähigkeit. In der Vergangenheit konzentrierten sich Rechenzentren auf die Verwendung von Zentraleinheiten (CPUs) für allgemeine Datenverarbeitung und von Grafikprozessoren (GPUs) für intensive Parallelverarbeitungsaufgaben, die für KI und maschinelles Lernen von zentraler Bedeutung sind. Da KI-Modelle immer umfangreicher und komplexer werden, sind Rechenzentren zur neuen Computereinheit geworden und erweitern die Grenzen herkömmlicher Cloud-Netzwerke. Um die Transformation hin zum Computing im Rechenzentrumsmaßstab zu ermöglichen, hat sich die Datenverarbeitungseinheit (DPU) als dritte Säule der Computertechnik etabliert.

Der Aufstieg der KI-Fabriken

Zu Beginn unserer KI-Fabrikreihe definierte F5 eine KI-Fabrik als eine riesige Investition in Speicher-, Netzwerk- und Computertechnik, die Trainings- und Inferenzanforderungen mit hohem Volumen und hoher Leistung erfüllt. Wie herkömmliche Fertigungsanlagen nutzen KI-Fabriken vortrainierte KI-Modelle, um Rohdaten in Informationen umzuwandeln.

Was ist eine Datenverarbeitungseinheit (DPU)?

Eine DPU ist ein programmierbarer Prozessor, der für die Übertragung und Verarbeitung großer Datenmengen mit der Leitungsgeschwindigkeit eines Netzwerks mittels Hardwarebeschleunigung ausgelegt ist. Ende 2024 haben wir BIG-IP Next für Kubernetes angekündigt , bereitgestellt auf NVIDIA BlueField-3 DPUs. NVIDIA BlueField ist eine beschleunigte Computerplattform für die Rechenzentrumsinfrastruktur, die speziell für den Betrieb von NVIDIA-KI-Fabriken entwickelt wurde. Während die CPU für allgemeine Berechnungen bei Applications zuständig ist und die GPU sich durch beschleunigte Rechenaufgaben wie KI-bezogene groß angelegte Vektor- und Matrixberechnungen und Grafik-Rendering auszeichnet, wird die NVIDIA BlueField DPU häufig in eine PCIe-Netzwerkschnittstellenkarte (Peripheral Component Interconnect Express) integriert, die für die Netzwerkkonnektivität für den Host oder das Gehäuse eines KI-Clusters verantwortlich ist. Mit anderen Worten: Die Netzwerkkarte ist nun im Wesentlichen ein leistungsstarker Prozessor, der für die Verarbeitung von Daten beim Ein- und Auslesen des Servers optimiert ist. Die BlueField DPU kann auch als Netzwerkgerät zwischen Clustern fungieren, wenn sich mehrere Hosts oder Chassis in einem einzigen KI-Cluster befinden.

Freigesetzte Kraft

Durch die Handhabung softwaredefinierter Netzwerke, Speicherverwaltung und Sicherheitsdienste verringern BlueField-DPUs die Rechenlast der CPUs und ermöglichen ihnen, sich auf die Aufgaben zu konzentrieren, bei denen sie besonders gut sind. Diese Offloading-Fähigkeit ist von entscheidender Bedeutung für KI-Fabriken, in denen große Datenmengen verarbeitet und schnell übertragen werden müssen, um den Anforderungen komplexer KI-Modelle und Echtzeit-Inferenzaufgaben gerecht zu werden.

BlueField DPUs tragen erheblich zur Energieeffizienz und Skalierbarkeit in KI-Fabriken bei. Da KI-Fabriken enorme Rechenressourcen benötigen, ist eine effiziente Verwaltung von Strom und Kühlung von größter Bedeutung. DPUs mit ihren speziellen Beschleunigungs-Engines und Hochleistungs-Netzwerkschnittstellen sorgen dafür, dass Daten mit minimaler Latenz und minimalem Stromverbrauch verarbeitet und transportiert werden. Diese Effizienz senkt nicht nur die Betriebskosten, sondern ermöglicht auch eine effektive Skalierung von KI-Fabriken. Mit BlueField DPUs können KI-Fabriken und große Infrastrukturen eine ausgewogene, leistungsstarke und hocheffiziente Infrastruktur erreichen, die die kontinuierliche Innovation und Bereitstellung von KI-Technologien unterstützt.

Wo werden BlueField DPUs in KI-Fabriken eingesetzt?

Bei Betrachtung der KI-Referenzarchitektur von F5 werden DPUs häufig in den Funktionsbereichen RAG-Korpusverwaltung, Feinabstimmung, Training und Inferenzdienste sowie den Speicherclustern eingesetzt, die diese Funktionen unterstützen. Darüber hinaus kommen DPUs in zahlreichen Applications zum Einsatz, bei denen ein hoher Datendurchsatz und eine hohe Energieeffizienz erforderlich sind, darunter beispielsweise DPUs, die die Bereitstellung von 5G-Radio Access Network (RAN) unterstützen.

Diagramm der KI-Referenzarchitektur

Die F5 AI-Referenzarchitektur hebt Bereiche hervor, in denen DPUs häufig eingesetzt werden.

Auslagerung und Beschleunigung der Application und -sicherheit auf die DPU

Die neue Anforderung an ein effizientes Verkehrsmanagement und eine robuste Sicherheit für KI-Fabriken stellt eine wichtige Verschiebung dar, bei der der Schwerpunkt auf dem Datenfluss und einer verstärkten Infrastruktur liegt, um Sicherheitsbedrohungen vorzubeugen. F5 BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, ermöglicht Konnektivität mit geringer Latenz und hohem Durchsatz durch Auslagerung und Beschleunigung der Datenbewegung von der CPU zu den DPUs. Darüber hinaus integriert es umfassende Sicherheitsfunktionen wie Firewalls, DDoS-Minderung, WAF, API-Schutz und Intrusion Prevention direkt auf der programmierbaren NVIDIA BlueField-3 DPU. Auf diese Weise können Sie eine Architektur erstellen, die KI-Modelle und Apps vor Bedrohungen isoliert und so die Datenintegrität und -souveränität gewährleistet.

BIG-IP Next für Kubernetes unterstützt Multi-Tenancy und ermöglicht das Hosten mehrerer Benutzer und KI-Workloads auf einer einzigen Infrastruktur sowie eine Netzwerkisolierung. Mit BIG-IP Next für Kubernetes wird die Verwaltung einer KI-Infrastruktur großen Maßstabs zum Kinderspiel, da es einen zentralen Punkt für die Verwaltung von Netzwerken, Verkehrsmanagement, Sicherheit und Multi-Tenant-Umgebungen bietet. Dies vereinfacht den Betrieb und reduziert die Betriebsausgaben, indem detaillierte Verkehrsdaten zur Netzwerktransparenz und Leistungsoptimierung bereitgestellt werden. Die Integration zwischen BIG-IP Next für Kubernetes und der NVIDIA BlueField-3 DPU trägt dazu bei, dass KI-Fabriken ihr volles Potenzial ausschöpfen und gleichzeitig die Tool-Vielfalt und betriebliche Komplexität reduziert werden.

Unterstützt von F5

Für Unternehmen, die in KI investieren, ist die Gewährleistung einer optimierten und sicheren Infrastruktur nicht verhandelbar. F5 BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, ist eine strategische Investition zur Bereitstellung hoher Leistung, Skalierbarkeit und Sicherheit, um den Ertrag groß angelegter KI-Infrastrukturen zu maximieren. Organisationen, die GPUs und DPUs einsetzen, um Investitionen in KI-Fabriken zu unterstützen, können sich an F5 wenden , um zu erfahren, wie BIG-IP Next für Kubernetes ihre KI-Workloads verbessern kann.

Der Fokus von F5 auf KI endet hier nicht – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .