Jenna Becker
F5
(415) 857-2864
j.becker@f5.com
Holly Lancaster
WE Kommunikation
(415) 547-7054
hluka@we-worldwide.com
F5 BIG-IP Next Cloud-Native Network Functions, bereitgestellt auf NVIDIA BlueField-3 DPUs, beschleunigen Datenmanagement und -sicherheit, ermöglichen neue Edge-KI-Innovationen und treiben die Zukunft von AI-RAN voran
MOBILE WORLD CONGRESS, BARCELONA – F5 (NASDAQ: FFIV) hat heute die Bereitstellung von BIG-IP Next Cloud-Native Network Functions (CNFs) auf NVIDIA BlueField-3 DPUs angekündigt und damit die technologische Zusammenarbeit der Unternehmen vertieft. Diese Lösung bietet die bewährten Netzwerkinfrastruktur von F5, wie Edge-Firewall, DNS und DDoS-Schutz, sowie leichte Cloud-native Funktionen, die mit NVIDIA BlueField-3 DPUs beschleunigt werden, um eine optimierte Leistung in Kubernetes-Umgebungen zu liefern und neue Edge-KI-Anwendungsfälle zu unterstützen.
Die F5 Application Delivery and Security Platform unterstützt einen Großteil der weltweiten Tier-1-5G-, Mobilfunk- und Festnetz-Telekommunikationsnetze. Dienstanbieter sind sich der Herausforderungen bewusst, die mit der Skalierung von KI- Applications in verteilten Umgebungen verbunden sind, insbesondere da veraltete Infrastrukturen im Netzwerkkern oft nicht über die erforderliche Verarbeitungsleistung verfügen, um KI-Inferenz praktikabel zu machen.
Auf NVIDIA DPUs laufende F5 CNFs können jetzt in Edge- und Far-Edge-Infrastrukturen eingebettet werden, um Rechenressourcen zu optimieren, den Stromverbrauch pro Gbit/s drastisch zu senken und die Gesamtbetriebskosten zu begrenzen. Die weitere Nutzung von Edge-Umgebungen zum Hinzufügen von Funktionalität und KI-Fähigkeiten zu Abonnentendiensten bringt auch zusätzliche Sicherheitsanforderungen mit sich, die die BlueField-Technologien von F5 und NVIDIA neben erweitertem Verkehrsmanagement bei gleichzeitiger Minimierung der Latenz erfüllen.
Durch die Bereitstellung von CNFs am Rand werden Applications näher an die Benutzer und ihre Daten gebracht, was die Datensouveränität fördert, das Benutzererlebnis verbessert und die Kosten für Strom, Platz und Kühlung senkt. Die Ermöglichung geringer Latenzzeiten ist weiterhin von entscheidender Bedeutung für KI- Applications und -Funktionen wie:
Die Einbeziehung von CNFs auf BlueField-3-DPUs erweitert das zuvor von F5 eingeführte BIG-IP Next für Kubernetes, das auf NVIDIA-DPUs bereitgestellt wird. F5 nutzt weiterhin das NVIDIA DOCA-Softwareframework, um seine Lösungen nahtlos in NVIDIA BlueField DPUs zu integrieren. Dieses umfassende Entwicklungsframework bietet F5 einen robusten Satz an APIs, Bibliotheken und Tools, um die Hardwarebeschleunigungsfunktionen von NVIDIA BlueField DPUs zu nutzen. Durch die Nutzung von DOCA erreicht F5 eine schnelle Integration und hohe Leistung über verschiedene Netzwerk- und Sicherheits-Offloads hinweg und behält gleichzeitig die Vorwärts- und Rückwärtskompatibilität über Generationen von BlueField DPUs hinweg bei. Darüber hinaus werden durch die Beschleunigung von F5 CNFs mit NVIDIA BlueField-3 CPU-Ressourcen freigegeben, die zum Ausführen anderer Applications genutzt werden können.
Edge-Bereitstellungen eröffnen Dienstanbietern wichtige Möglichkeiten, darunter verteilte N6-LAN-Funktionen für UPFs und Edge-Sicherheitsdienste zur Unterstützung von Distributed Access Architecture (DAA) und Private 5G. Darüber hinaus gewinnt AI-RAN an Dynamik; SoftBank hat kürzlich seine Produktionsumgebung mit NVIDIA vorgestellt .
Das Potenzial von AI-RAN mit NVIDIA und F5 freisetzen
Ziel von AI-RAN ist es, Mobilfunknetze in Mehrzweckinfrastrukturen umzuwandeln, die die Ressourcennutzung maximieren, durch gehostete KI-Dienste neue Einnahmequellen schaffen und die Kosteneffizienz verbessern. AI-RAN ermöglicht Mobilfunkanbietern, verteiltes KI-Computing mit zuverlässiger, sicherer und optimierter Konnektivität zu unterstützen und stärkt die Edge-Infrastrukturfunktionen, indem es ansonsten ungenutzte Verarbeitungsleistung nutzt. Zusammen beschleunigen BIG-IP Next CNFs auf NVIDIA BlueField-3 DPUs die AI-RAN-Bereitstellung durch optimiertes Verkehrsmanagement für KI- und RAN-Workloads und bieten verbesserten Firewall- und DDoS-Schutz. Multi-Tenancy und Tenant-Isolation für Workloads, die an wesentliche Funktionen gebunden sind, werden nativ in die Lösung integriert. Mit F5 und NVIDIA können Mobilfunkanbieter die gleiche RAN-Recheninfrastruktur intelligent nutzen, um KI-Angebote neben bestehenden RAN-Diensten zu betreiben und so durch verbesserte Benutzerangebote erhebliche Kosteneinsparungen und Umsatzpotenziale zu erzielen.
Zitate
„Kunden suchen nach kostengünstigen Möglichkeiten, die Vorteile einer einheitlichen Application und Sicherheit in neue KI-Infrastrukturen zu bringen, was die kontinuierliche Zusammenarbeit zwischen F5 und NVIDIA vorantreibt“, sagte Ahmed Guetari, VP und GM, Service Provider bei F5. „Insbesondere Dienstanbieter sehen im Edge-Bereich ein wachsendes Interesse, da die Datenaufnahme und -inferenzierung nicht mehr an einem zentralen Standort oder in einer Cloud-Umgebung erfolgen muss. Dies eröffnet unzählige Möglichkeiten, Netzwerke mit Intelligenz und Automatisierungsfunktionen auszustatten und gleichzeitig die Leistung für die Benutzer zu verbessern.“
„Da die Nachfrage nach KI-Inferenz am Rande der Gesellschaft in den Mittelpunkt rückt, ist der Aufbau einer KI-fähigen verteilten Infrastruktur eine wichtige Chance für Telekommunikationsanbieter, einen Mehrwert für ihre Kunden zu schaffen“, sagte Ash Bhalgat, Senior Director of AI Networking and Security Solutions, Ecosystem and Marketing bei NVIDIA. „Die Cloud-nativen Funktionen von F5, beschleunigt durch die BlueField-3 DPUs von NVIDIA, schaffen eine leistungsstarke Lösung, um KI näher an die Benutzer heranzubringen und gleichzeitig Dienstanbietern beispiellose Leistung, Sicherheit und Effizienz zu bieten. Wir erfüllen nicht nur die Anforderungen an Edge-KI, sondern versetzen Unternehmen auch in die Lage, KI zu nutzen, um in unserer vernetzten Welt einen Wettbewerbsvorteil zu behalten.“
Verfügbarkeit
Die allgemeine Verfügbarkeit der auf NVIDIA BlueField-3 DPUs bereitgestellten F5 BIG-IP Next Cloud-Native Network Functions wird für Juni 2025 erwartet. Weitere Informationen erhalten Sie bei F5 auf der NVIDIA GTC-Veranstaltung, die vom 17. bis 21. März in San Jose, Kalifornien, stattfindet. Lesen Sie auch den Begleitblog und wenden Sie sich an F5 .
F5 ist ein Multicloud-Anwendungssicherheits- und Bereitstellungsunternehmen, das sich zum Ziel gesetzt hat, eine bessere digitale Welt zu schaffen. F5 arbeitet mit den größten und fortschrittlichsten Unternehmen der Welt zusammen, um jede App zu sichern – vor Ort, in der Cloud oder am Rand. Mit F5 können Unternehmen Bedrohungen stets einen Schritt voraus sein und ihren Kunden gleichzeitig außergewöhnliche, sichere digitale Erlebnisse bieten. Weitere Informationen finden Sie unter f5.com . (NASDAQ: FFIV)
Sie können @F5 auch auf X folgen oder uns auf LinkedIn und Facebook besuchen, um mehr über F5, seine Partner und Technologien zu erfahren. F5, BIG-IP und BIG-IP Next sind Marken, Dienstleistungsmarken oder Handelsnamen von F5, Inc. in den USA und anderen Ländern. Alle anderen hierin genannten Produkt- und Firmennamen können Marken ihrer jeweiligen Eigentümer sein. Die Verwendung der Begriffe „Partner“, „Partnerschaften“, „Partnerschaft“ oder „Partnerschaftsbildung“ in dieser Pressemitteilung bedeutet nicht, dass zwischen F5 und einem anderen Unternehmen ein Joint Venture besteht.
# # #
Diese Pressemitteilung enthält zukunftsbezogene Aussagen, darunter unter anderem Aussagen zu potenziellen Vorteilen und zur Verfügbarkeit von F5 BIG-IP Next Cloud-Native Network Functions, die auf NVIDIA BlueField-3 DPUs laufen. Die individuelle Umgebung, die Ziele und Einschränkungen jedes Kunden können sich auf die potenziellen Vorteile auswirken, während Umgebungsfaktoren den Zeitpunkt der Verfügbarkeit beeinflussen können.