BLOG

F5 BIG-IP Next für Kubernetes auf NVIDIA BlueField-3-DPUs ist ab sofort verfügbar.

Ahmed Guetari Miniaturbild
Ahmed Guetari
Veröffentlicht am 25. April 2025

Heute gibt F5 die allgemeine Verfügbarkeit von F5 BIG-IP Next für Kubernetes bekannt, das auf NVIDIA BlueField-3 DPUs bereitgestellt wird und so die Ressourcenverwaltung des Cloud-Rechenzentrums der KI-Fabrik verbessert und gleichzeitig eine optimale Leistung der KI- Application erzielt. Die integrierte Lösung steigert die Effizienz der Infrastruktur und bietet leistungsstarke Netzwerke, Sicherheit und Verkehrsmanagement zur Unterstützung innovativer Anwendungsfälle, darunter GPU as a Service (GPUaaS) und Inferenzfunktionen.

Durch die Integration von BIG-IP Next für Kubernetes mit NVIDIA BlueField-3 DPUs werden dringende Herausforderungen bewältigt, denen sich Unternehmen bei der Implementierung von KI-Infrastrukturen im Cloud-Maßstab gegenübersehen. Umfangreiche KI-Workloads erfordern die Verarbeitung massiver Datenmengen, für deren Analyse, Interpretation und Gewinnung von Erkenntnissen in Echtzeit Hochleistungsrechnerressourcen erforderlich sind. Dies stellt eine erhebliche Belastung für die herkömmliche Netzwerkinfrastruktur dar, beeinträchtigt die Leistung und birgt die Gefahr von Verarbeitungsineffizienzen und Inferenzverzögerungen.

Leistung in branchenprägenden Umgebungen

F5, NVIDIA und SoftBank haben kürzlich bei einer Sitzung auf der NVIDIA GTC 2025 zusammengearbeitet, um den Wert einer kombinierten Lösung zu demonstrieren. Während der Sitzung teilte SoftBank bahnbrechende Erkenntnisse darüber, wie Unternehmen Cloud-native KI-Workloads mit einem DPU-beschleunigten Service-Proxy für Kubernetes beschleunigen können. In der Sitzung wurden die Berechnungen und Leistungskennzahlen von SoftBank aus ihrem jüngsten Proof-of-Concept für F5 BIG-IP Next für Kubernetes vorgestellt, das auf NVIDIA BlueField-3 DPUs bereitgestellt wird. SoftBank erzielte eine Steigerung des HTTP-Durchsatzes um 18 % (77 Gbit/s), eine 11-fache Verbesserung der Time-to-First-Byte (TTFB) und eine erstaunliche Steigerung der Netzwerkenergieeffizienz um das 190-fache. Diese Ergebnisse unterstreichen das transformative Potenzial der DPU-Beschleunigung für moderne Cloud-native Umgebungen, die einen verbesserten Token-Durchsatz und ein verbessertes Benutzererlebnis bei der KI-Inferenz ermöglichen.

Weniger Komplexität, optimierte Leistung und erhöhte Sicherheit

NVIDIA BlueField-3 DPUs sind für die anspruchsvollsten Infrastruktur-Workloads konzipiert , von beschleunigter KI und drahtlosen 5G-Netzwerken bis hin zu hybride Cloud und Hochleistungsrechnen. Die kombinierte Lösung nutzt die F5 Application Delivery and Security Platform, um den Datenverkehr in und aus KI-Infrastrukturen zu beschleunigen, zu sichern und zu optimieren und so die effiziente Verarbeitung großer KI-Workloads erheblich zu verbessern. Durch die Bereitstellung eines optimierten Verkehrsmanagements ermöglicht die Lösung eine höhere Datenaufnahmeleistung und Serverauslastung während der KI-Inferenz, was zu einem besseren Erlebnis für Benutzer von KI-Apps führt.

BIG-IP Next für Kubernetes reduziert die Komplexität der Integration mehrerer Elemente der KI-Infrastruktur eines Unternehmens erheblich, indem es Netzwerk-, Sicherheits-, Verkehrsmanagement- und Lastausgleichsfunktionen vereinheitlicht, um umfassende Transparenz in Multicloud-Umgebungen mit verbesserter Beobachtbarkeit für KI-Workloads zu bieten. Die Lösung unterstützt wichtige Sicherheitsfunktionen für Zero-Trust-Architekturen, API-Schutz, Intrusion Prevention, Verschlüsselung und Zertifikatsverwaltung. Mit der allgemeinen Verfügbarkeit wurden hardwarebeschleunigte Abwehrmaßnahmen gegen Distributed Denial of Service (DDoS) sowie Edge-Firewall-Funktionen hinzugefügt, die einen schnelleren und effizienteren Cyberschutz ermöglichen. Die Lösung automatisiert außerdem die Erkennung und Sicherung von Trainings- und Inferenzendpunkten für KI-Modelle und ermöglicht es Unternehmen, KI- Applications vor gezielten Bedrohungen zu isolieren und gleichzeitig die Datenintegrität und -souveränität zu stärken.

Darüber hinaus ermöglicht die Integration von BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs eine Multi-Tenant-Architektur, die mehrere Benutzer sicher auf denselben KI-Clustern hosten kann, während ihre KI-Workloads, Daten und ihr Datenverkehr getrennt bleiben.

Überzeugende neue Anwendungsfälle, die Kunden bei der Nutzung von KI unterstützen

Gemeinsam verbessern F5 und NVIDIA nicht nur das Infrastrukturmanagement und die Effizienz, sondern ermöglichen auch schnellere, reaktionsfähigere KI-Inferenzen für neue Anwendungsfälle, wie beispielsweise:

  • GPU as a Service (GPUaaS) bietet Cloud-basierten On-Demand-Zugriff auf GPUs für eine Vielzahl von Computeraufgaben, darunter KI-Modelltraining, wissenschaftliche Simulationen und Rendering. Der Dienst ermöglicht es Unternehmen, GPU-Rechenressourcen von Cloud-Anbietern auf Pay-as-you-go- oder Abonnementbasis zu mieten. Sie zahlen für GPUs nur bei Bedarf und maximieren so die Menge an GPU-Rechenleistung, die sie pro ausgegebenem Dollar erhalten. Die Integration von BIG-IP Next für Kubernetes mit NVIDIA BlueField-3 DPUs ermöglicht sichere Mandantenfähigkeit mit granularer Mandantenisolierung, was für GPUaaS-Szenarien von entscheidender Bedeutung ist, da es mehreren Benutzern oder Organisationen ermöglicht, GPU-Ressourcen sicher und effizient gemeinsam zu nutzen, während gleichzeitig Workloads ausgeführt werden. Durch die Aufteilung des GPU-Dienstes in mehrere sichere Instanzen isoliert die granulare Multi-Tenancy verschiedene Mandanten und Workloads, um Datenlecks und Sicherheitsrisiken zu verhindern. Darüber hinaus ermöglicht es eine dynamische Ressourcenzuweisung, die sicherstellt, dass jede Arbeitslast die erforderlichen GPU- und Netzwerkressourcen erhält, ohne dass es zu einer Überbereitstellung kommt.
  • Inferenzdienste , bei denen spezialisierte cloudbasierte KI-Plattformen optimierte Umgebungen für die effiziente Bereitstellung von Inferenzen auf trainierten KI-Modellen bereitstellen. Im Unterschied zu GPUaaS, das reine GPU-Leistung bereitstellt, sind Inferenzdienste auf eine optimierte Modellbereitstellung abgestimmt. Beispiele für diese Dienste sind der Betrieb von Chatbots, die Implementierung von Betrugserkennung, die Durchführung von Recherchen und die Ausführung ähnlicher KI-gestützter Aufgaben. Darüber hinaus werden Inferenzdienste zur Optimierung der Bilderkennung und von Szenarien für autonomes Fahren sowie zur Verarbeitung natürlicher Sprache für Sprachassistenten oder zur Sentimentanalyse eingesetzt. BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs maximieren die Inferenzleistung und reduzieren die End-to-End-Latenz durch die gleichzeitige Ausführung mehrerer Modelle. Inferenzdienste, die auf der kombinierten Lösung von F5 und NVIDIA basieren, können Ressourcen außerdem dynamisch skalieren, um schwankende Arbeitslasten und Anforderungen zu bewältigen.

Sowohl für GPUaaS als auch für Inferenzdienste ist die granulare Beobachtbarkeit eine entscheidende Voraussetzung. BIG-IP Next für Kubernetes bietet eine zentralisierte und vollständig integrierte Ansicht, die umfassende Transparenz im gesamten KI-Ökosystem bietet, um Leistung und Ausfallsicherheit zu überwachen, mit der Möglichkeit, Sicherheitsfunktionen sofort anzuwenden, um den Datenschutz durchzusetzen, unberechtigter Zugriff zu verhindern und Anomalien zu isolieren.

Weitere Informationen finden Sie auf der Produktseite oder wenden Sie sich an Ihr F5-Account-Team, um BIG-IP Next für Kubernetes für die KI-Infrastruktur Ihres Unternehmens zu besprechen. Der Fokus von F5 auf KI hört hier nicht auf – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .