Heute gibt F5 die allgemeine Verfügbarkeit von F5 BIG-IP Next für Kubernetes bekannt, das auf NVIDIA BlueField-3 DPUs bereitgestellt wird und so die Ressourcenverwaltung des Cloud-Rechenzentrums der KI-Fabrik verbessert und gleichzeitig eine optimale Leistung der KI- Application erzielt. Die integrierte Lösung steigert die Effizienz der Infrastruktur und bietet leistungsstarke Netzwerke, Sicherheit und Verkehrsmanagement zur Unterstützung innovativer Anwendungsfälle, darunter GPU as a Service (GPUaaS) und Inferenzfunktionen.
Durch die Integration von BIG-IP Next für Kubernetes mit NVIDIA BlueField-3 DPUs werden dringende Herausforderungen bewältigt, denen sich Unternehmen bei der Implementierung von KI-Infrastrukturen im Cloud-Maßstab gegenübersehen. Umfangreiche KI-Workloads erfordern die Verarbeitung massiver Datenmengen, für deren Analyse, Interpretation und Gewinnung von Erkenntnissen in Echtzeit Hochleistungsrechnerressourcen erforderlich sind. Dies stellt eine erhebliche Belastung für die herkömmliche Netzwerkinfrastruktur dar, beeinträchtigt die Leistung und birgt die Gefahr von Verarbeitungsineffizienzen und Inferenzverzögerungen.
F5, NVIDIA und SoftBank haben kürzlich bei einer Sitzung auf der NVIDIA GTC 2025 zusammengearbeitet, um den Wert einer kombinierten Lösung zu demonstrieren. Während der Sitzung teilte SoftBank bahnbrechende Erkenntnisse darüber, wie Unternehmen Cloud-native KI-Workloads mit einem DPU-beschleunigten Service-Proxy für Kubernetes beschleunigen können. In der Sitzung wurden die Berechnungen und Leistungskennzahlen von SoftBank aus ihrem jüngsten Proof-of-Concept für F5 BIG-IP Next für Kubernetes vorgestellt, das auf NVIDIA BlueField-3 DPUs bereitgestellt wird. SoftBank erzielte eine Steigerung des HTTP-Durchsatzes um 18 % (77 Gbit/s), eine 11-fache Verbesserung der Time-to-First-Byte (TTFB) und eine erstaunliche Steigerung der Netzwerkenergieeffizienz um das 190-fache. Diese Ergebnisse unterstreichen das transformative Potenzial der DPU-Beschleunigung für moderne Cloud-native Umgebungen, die einen verbesserten Token-Durchsatz und ein verbessertes Benutzererlebnis bei der KI-Inferenz ermöglichen.
NVIDIA BlueField-3 DPUs sind für die anspruchsvollsten Infrastruktur-Workloads konzipiert , von beschleunigter KI und drahtlosen 5G-Netzwerken bis hin zu hybride Cloud und Hochleistungsrechnen. Die kombinierte Lösung nutzt die F5 Application Delivery and Security Platform, um den Datenverkehr in und aus KI-Infrastrukturen zu beschleunigen, zu sichern und zu optimieren und so die effiziente Verarbeitung großer KI-Workloads erheblich zu verbessern. Durch die Bereitstellung eines optimierten Verkehrsmanagements ermöglicht die Lösung eine höhere Datenaufnahmeleistung und Serverauslastung während der KI-Inferenz, was zu einem besseren Erlebnis für Benutzer von KI-Apps führt.
BIG-IP Next für Kubernetes reduziert die Komplexität der Integration mehrerer Elemente der KI-Infrastruktur eines Unternehmens erheblich, indem es Netzwerk-, Sicherheits-, Verkehrsmanagement- und Lastausgleichsfunktionen vereinheitlicht, um umfassende Transparenz in Multicloud-Umgebungen mit verbesserter Beobachtbarkeit für KI-Workloads zu bieten. Die Lösung unterstützt wichtige Sicherheitsfunktionen für Zero-Trust-Architekturen, API-Schutz, Intrusion Prevention, Verschlüsselung und Zertifikatsverwaltung. Mit der allgemeinen Verfügbarkeit wurden hardwarebeschleunigte Abwehrmaßnahmen gegen Distributed Denial of Service (DDoS) sowie Edge-Firewall-Funktionen hinzugefügt, die einen schnelleren und effizienteren Cyberschutz ermöglichen. Die Lösung automatisiert außerdem die Erkennung und Sicherung von Trainings- und Inferenzendpunkten für KI-Modelle und ermöglicht es Unternehmen, KI- Applications vor gezielten Bedrohungen zu isolieren und gleichzeitig die Datenintegrität und -souveränität zu stärken.
Darüber hinaus ermöglicht die Integration von BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs eine Multi-Tenant-Architektur, die mehrere Benutzer sicher auf denselben KI-Clustern hosten kann, während ihre KI-Workloads, Daten und ihr Datenverkehr getrennt bleiben.
Gemeinsam verbessern F5 und NVIDIA nicht nur das Infrastrukturmanagement und die Effizienz, sondern ermöglichen auch schnellere, reaktionsfähigere KI-Inferenzen für neue Anwendungsfälle, wie beispielsweise:
Sowohl für GPUaaS als auch für Inferenzdienste ist die granulare Beobachtbarkeit eine entscheidende Voraussetzung. BIG-IP Next für Kubernetes bietet eine zentralisierte und vollständig integrierte Ansicht, die umfassende Transparenz im gesamten KI-Ökosystem bietet, um Leistung und Ausfallsicherheit zu überwachen, mit der Möglichkeit, Sicherheitsfunktionen sofort anzuwenden, um den Datenschutz durchzusetzen, unberechtigter Zugriff zu verhindern und Anomalien zu isolieren.
Weitere Informationen finden Sie auf der Produktseite oder wenden Sie sich an Ihr F5-Account-Team, um BIG-IP Next für Kubernetes für die KI-Infrastruktur Ihres Unternehmens zu besprechen. Der Fokus von F5 auf KI hört hier nicht auf – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .