BLOG

F5 hilft Dienstanbietern und Unternehmen, das volle Potenzial von KI-Bereitstellungen mit NVIDIA BlueField-3 DPUs auszuschöpfen

Ahmed Guetari Miniaturbild
Ahmed Guetari
Veröffentlicht am 23. Oktober 2024

In den letzten Jahrzehnten hat die Geschäftswelt aufgrund technologischer Revolutionen viele Wendepunkte erlebt und F5 war da, um unseren Kunden in diesen kritischen Phasen zu helfen.

Als Unternehmen mit der digitalen Transformation begannen, wurden Anwendungen zum Herzstück des Geschäfts und F5 sorgte dafür, dass sie in großem Maßstab bereitgestellt und gesichert werden konnten. Als 5G vor Kurzem versprach, die Geschäftswelt mit beispiellosen Geschwindigkeiten, Diensten und Zuverlässigkeit zu revolutionieren, war F5 zur Stelle, um Mobilfunkunternehmen bei der großflächigen Bereitstellung eines Cloud-nativen 5G-Kerns zu unterstützen.

Jetzt stehen wir wieder einmal an einem Wendepunkt, wahrscheinlich dem größten, den unsere Branche je erlebt hat, da Unternehmen nach Möglichkeiten suchen, die Leistungsfähigkeit der KI zu nutzen. Während Kunden diese transformative Technologie implementieren, hilft F5 ihnen, das volle Potenzial ihrer groß angelegten KI-Implementierungen auszuschöpfen.

Die Schwierigkeit, optimale Leistung zu erzielen

Der zunehmende Einsatz von KI-Clustern treibt den Wandel hin zum beschleunigten Computing voran. Der Versuch, etablierte Praktiken in den Bereichen allgemeine Datenverarbeitung, Vernetzung, Sicherheit und Überwachung anzuwenden, führt häufig zu Ineffizienzen, Verzögerungen und steigenden Kosten.

Die immensen Datenverarbeitungsanforderungen der KI belasten die herkömmliche Netzwerkinfrastruktur erheblich und erschweren die Aufrechterhaltung einer optimalen Leistung. Als Schlüssellösung hat sich die NVIDIA BlueField-Datenverarbeitungseinheit (DPU) herausgestellt. Durch Auslagern und Beschleunigen bandbreitenintensiver Netzwerk- und Sicherheitsaufgaben – wie etwa Paketverarbeitung, Verschlüsselung und Komprimierung – bieten BlueField-3-DPUs optimale Cloud-Netzwerkkonnektivität. Diese Optimierung verbessert die Gesamtleistung und beschleunigt den Datenzugriff des Grafikprozessors (GPU).

Dienstanbieter und große Unternehmen bauen groß angelegte KI-Infrastrukturen oder KI-Fabriken auf und nutzen dabei die Full-Stack-Beschleunigungs-Computing-Plattform von NVIDIA, um generatives KI-Modelltraining und Inferenz im großen Maßstab durchzuführen. Unternehmen müssen ihre Investitionen in KI-Fabriken maximieren, die erheblich sein können. Doch ohne die richtige Grundlage kann es passieren, dass die KI-Infrastruktur nicht ausreichend genutzt wird. 

Effiziente Verwaltung des enormen Datenverkehrs, der an KI-Server geleitet wird

F5 BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, wurde entwickelt, um diese Probleme zu lösen. Die Lösung konzentriert sich auf das Auslagern und Beschleunigen des F5 BIG-IP Next Service Proxy für Kubernetes (SPK) auf den BlueField-3 DPUs von NVIDIA . Es baut auf der Führungsrolle von F5 bei der Bewältigung kritischer Herausforderungen hinsichtlich Anwendungsbereitstellung und Sicherheit während wichtiger Marktwendezeiten auf und nutzt zugleich die Innovationen von NVIDIA im Bereich beschleunigtes Computing und Hochleistungsnetzwerke. 

F5 BIG-IP Next SPK wurde entwickelt, um die Probleme zu lösen, mit denen Dienstanbieter bei der Umstellung auf 5G mit Kubernetes konfrontiert waren. Die 5G-Infrastruktur basiert auf einer Cloud-nativen Containerarchitektur, wobei Container-Workloads mit Kubernetes verwaltet werden. Allerdings war Kubernetes ursprünglich nicht für die komplexen Anwendungsfälle einer 5G-Umgebung vorgesehen. BIG-IP Next SPK half Telekommunikationsunternehmen dabei, Kubernetes-Netzwerke an eine 5G-Infrastruktur anzupassen und ihnen die Sichtbarkeit, Kontrolle und Sicherheit zu geben, die sie für die dynamische Skalierung ihrer 5G-Netzwerke benötigten. In den letzten Jahren haben Dienstanbieter BIG-IP genutzt, um die 5G-Technologie für Millionen von Abonnenten zum Leben zu erwecken.  

So wie BIG-IP Next SPK eine zentrale Rolle bei der Aktivierung von 5G Core für den letzten Markttrend gespielt hat, entwickelt es sich jetzt weiter, um die Herausforderungen des KI-Markttrends und der Bereitstellung von KI-Workloads zu bewältigen, die Ähnlichkeiten mit 5G-Workloads aufweisen, aber exponentiell höhere Verkehrsvolumina mit sich bringen. Um den Anforderungen dieser neuen Marktentwicklung gerecht zu werden, veröffentlicht F5 BIG-IP Next für Kubernetes auf NVIDIA BlueField-3 DPUs, um den enormen Datenverkehr zu KI-Servern effektiv zu verwalten.

Diese Lösung transformiert die moderne Anwendungsbereitstellung, um den Anforderungen generativer KI gerecht zu werden. Es handelt sich um eine Kubernetes-native Implementierung der BIG-IP-Plattform von F5, die Netzwerk-, Sicherheits- und Lastausgleichs-Workloads handhabt und an der Demarkationsstelle zwischen dem KI-Cluster und anderen Teilen von Rechenzentren sitzt. BIG-IP Next für Kubernetes ordnet KI-Cluster-Namespaces der Netzwerkmiete von Rechenzentren zu und sorgt so für angemessene Sicherheit und vereinfachte Verwaltung. Durch die Nutzung der Hardwarebeschleuniger der BlueField-3 DPU beschleunigt BIG-IP Next für Kubernetes eine Vielzahl von Netzwerk- und Datendiensten und optimiert die Energieeffizienz durch Entlastung der CPU-Rechenressourcen.

So erwähnte Meta beispielsweise bei seiner Veranstaltung Networking @Scale 2024 Anfang dieses Jahres, dass das Training seines Open-Source-Lernsprachenmodells (LLM) Llama 3 durch Netzwerklatenz behindert wurde, was durch die Feinabstimmung der Hardware-Software-Interaktionen behoben werden konnte. Dieser Ansatz steigerte die Gesamtleistung um 10 %. Während 10 % wie ein kleiner Gewinn erscheinen, bedeutet diese Verbesserung bei einem Modell, dessen Training Monate dauert, eine Zeitersparnis von mehreren Wochen.

Reduzierung der Komplexität von KI-Bereitstellungen

F5 BIG-IP Next für Kubernetes, bereitgestellt auf BlueField-3 DPUs, bietet zahlreiche Vorteile für Dienstanbieter und große Unternehmen, die große KI-Infrastrukturen aufbauen möchten. Dazu gehören:

  • Vereinfachte Integration: Bisher mussten Unternehmen zur Bereitstellung und Sicherung ihrer KI-Anwendungen Softwarekomponenten von unterschiedlichen Anbietern zusammenfügen. BIG-IP Next für Kubernetes kombiniert Netzwerk, Sicherheit, Verkehrsmanagement und Lastausgleich in einer einzigen Lösung und vereinfacht so die Komplexität von KI-Bereitstellungen. Darüber hinaus bietet es eine integrierte Ansicht dieser Funktionen in der gesamten KI-Infrastruktur sowie die umfassende Beobachtung und detaillierte Steuerung, die zur Optimierung der KI-Workloads erforderlich sind. 
  • Verbesserte Sicherheit: BIG-IP Next für Kubernetes unterstützt wichtige Sicherheitsfunktionen und eine Zero-Trust-Architektur, darunter Edge-Firewall, DDoS-Minderung (Distributed Denial of Service), API-Schutz, Intrusion Prevention, Verschlüsselung und Zertifikatsverwaltung – und verlagert diese Funktionen auf die DPU, wodurch wertvolle CPU-Ressourcen freigegeben werden.
  • Verbesserte Leistung: BIG-IP Next für Kubernetes beschleunigt die Vernetzung und Sicherheit, was entscheidend ist, um die Anforderungen an die KI-Infrastruktur zur Bereitstellung von Anwendungen im Cloud-Maßstab zu erfüllen.
  • Unterstützung mehrerer Mandanten: BIG-IP Next für Kubernetes ermöglicht eine Multi-Tenant-Architektur, sodass Dienstanbieter mehrere Benutzer sicher auf derselben KI-Infrastruktur hosten und gleichzeitig ihre KI-Workloads und -Daten getrennt halten können.

Erfolgreiche Bereitstellung KI-optimierter Rechenzentren

Durch sorgfältige Abwägung der Herausforderungen und verfügbaren Lösungen können Unternehmen erfolgreich für KI optimierte Rechenzentren bereitstellen, ohne den laufenden Betrieb zu stören oder die Sicherheit zu gefährden. F5 BIG-IP Next für Kubernetes, bereitgestellt auf BlueField-3 DPUs, erweist sich als attraktive Option, da es nahtlose Integration, verbesserte Sicherheit und verbesserte Leistung für KI-Workloads bietet, darunter auch groß angelegte LLMs wie Llama 3.

Weitere Informationen finden Sie in unserer Pressemitteilung und im Blogbeitrag von NVIDIA .