PRESSEMITTEILUNG

F5 erweitert mit NVIDIA die Leistung, Mandantenfähigkeit und Sicherheitsfunktionen für die sich schnell entwickelnde KI-Landschaft.

Veröffentlicht am 11. Juni 2025
KONTAKTE

Daniel Sörensen
F5
(650) 228-4842
d.sorensen@f5.com

Holly Lancaster
Wir. Kommunikation
(415) 547-7054
hluka@we-worldwide.com

Die Sesterce-Validierung unterstreicht die Innovationszusammenarbeit zwischen F5 und NVIDIA, um Kunden dabei zu helfen, den Wert der KI-orientierten Application zu nutzen

PARIS  F5 (NASDAQ: FFIV), der weltweit führende Anbieter für die Bereitstellung und Sicherung aller Apps und APIs, hat heute neue Funktionen für F5 BIG-IP Next für Kubernetes angekündigt, die mit NVIDIA BlueField-3 DPUs und dem NVIDIA DOCA-Softwareframework beschleunigt werden, was durch die Validierungsbereitstellung des Kunden Sesterce unterstrichen wird. Sesterce ist ein führender europäischer Betreiber, der auf Infrastrukturen der nächsten Generation und souveräne KI spezialisiert ist, die auf die Anforderungen des beschleunigten Computing und der Künstliche Intelligenz zugeschnitten sind.

BIG-IP Next für Kubernetes, das nativ auf NVIDIA BlueField-3 DPUs läuft, erweitert die F5 Application Delivery and Security Platform und bietet leistungsstarkes Verkehrsmanagement und Sicherheit für KI-Infrastrukturen im großen Maßstab und ermöglicht so mehr Effizienz, Kontrolle und Leistung für KI- Applications. Parallel zu den überzeugenden Leistungsvorteilen, die zusammen mit der allgemeinen Verfügbarkeit Anfang des Jahres angekündigt wurden, hat Sesterce die Validierung der F5- und NVIDIA-Lösung in einer Reihe von Schlüsselfunktionen erfolgreich abgeschlossen, darunter in den folgenden Bereichen:

- Verbesserte Leistung, Mandantenfähigkeit und Sicherheit, um die Erwartungen an die Cloud-Klasse zu erfüllen, was zunächst eine Verbesserung der GPU-Auslastung um 20 % zeigt.

- Integration mit NVIDIA Dynamo und KV Cache Manager zur Reduzierung der Latenz für die Argumentation von Inferenzsystemen mit großen Sprachmodellen (LLM) und zur Optimierung von GPUs und Speicherressourcen.

- Intelligentes LLM-Routing auf BlueField-DPUs, das effektiv mit NVIDIA NIM- Mikroservices für Workloads läuft, die mehrere Modelle erfordern, und den Kunden das Beste aller verfügbaren Modelle bietet.

- Skalierung und Sicherung des Model Context Protocol (MCP), einschließlich Reverse-Proxy-Funktionen und Schutz für skalierbarere und sicherere LLMs, sodass Kunden die Leistung von MCP-Servern schnell und sicher nutzen können.

- Leistungsstarke Datenprogrammierbarkeit mit robusten F5 iRules- Funktionen, die eine schnelle Anpassung zur Unterstützung von KI- Applications und sich entwickelnden Sicherheitsanforderungen ermöglichen.

„Die Integration zwischen F5 und NVIDIA war schon verlockend, bevor wir irgendwelche Tests durchgeführt haben“, sagte Youssef El Manssouri, CEO und Mitbegründer von Sesterce. „Unsere Ergebnisse unterstreichen die Vorteile des dynamischen Lastausgleichs von F5 mit großem Kubernetes-Ein- und -Ausgang in KI-Umgebungen. Dieser Ansatz ermöglicht es uns, den Datenverkehr effizienter zu verteilen und die Nutzung unserer GPUs zu optimieren, während wir unseren Kunden gleichzeitig zusätzlichen und einzigartigen Mehrwert bieten können. Wir freuen uns über die Unterstützung von F5 für eine wachsende Zahl von NVIDIA-Anwendungsfällen, einschließlich verbesserter Mandantenfähigkeit, und wir freuen uns auf weitere Innovationen zwischen den Unternehmen bei der Unterstützung der KI-Infrastruktur der nächsten Generation.“

Zu den Highlights der neuen Lösungsfunktionen gehören:

  • LLM-Routing und dynamisches Lastenausgleich mit BIG-IP Next für Kubernetes

Mit dieser kollaborativen Lösung können einfache KI-bezogene Aufgaben an weniger teure, leichtgewichtige LLMs weitergeleitet werden, um generative KI zu unterstützen, während erweiterte Modelle für komplexe Abfragen reserviert werden. Dieses Maß an anpassbarer Intelligenz ermöglicht es Routing-Funktionen auch, domänenspezifische LLMs zu nutzen, wodurch die Ausgabequalität verbessert und das Kundenerlebnis deutlich gesteigert wird. Das erweiterte Verkehrsmanagement von F5 stellt sicher, dass Abfragen an das am besten geeignete LLM gesendet werden, wodurch die Latenz verringert und die Zeit bis zum ersten Token verbessert wird.

„Unternehmen setzen zunehmend mehrere LLMs ein, um erweiterte KI-Erlebnisse zu ermöglichen. Das Weiterleiten und Klassifizieren des LLM-Verkehrs kann jedoch rechenintensiv sein und die Leistung und das Benutzererlebnis beeinträchtigen“, sagte Kunal Anand, Chief Innovation Officer bei F5. „Durch die Programmierung der Routing-Logik direkt auf NVIDIA BlueField-3 DPUs ist F5 BIG-IP Next für Kubernetes der effizienteste Ansatz für die Bereitstellung und Sicherung von LLM-Verkehr. Dies ist erst der Anfang. Unsere Plattform eröffnet neue Möglichkeiten für die KI-Infrastruktur und wir freuen uns darauf, die gemeinsame Innovation mit NVIDIA zu vertiefen, während die Unternehmens-KI weiter wächst.“

  • Optimierung von GPUs für verteilte KI-Inferenz im großen Maßstab mit NVIDIA Dynamo und KV Cache-Integration

Anfang des Jahres wurde NVIDIA Dynamo eingeführt , ein ergänzendes Framework für die Bereitstellung generativer KI- und Argumentationsmodelle in groß angelegten verteilten Umgebungen. NVIDIA Dynamo rationalisiert die Komplexität der Ausführung von KI-Inferenzen in verteilten Umgebungen, indem es Aufgaben wie Planung, Routing und Speicherverwaltung orchestriert, um einen reibungslosen Betrieb unter dynamischen Arbeitslasten zu gewährleisten. Das Auslagern bestimmter Vorgänge von CPUs auf BlueField-DPUs ist einer der Hauptvorteile der kombinierten Lösung von F5 und NVIDIA. Mit F5 kann die Dynamo KV Cache Manager-Funktion Anfragen intelligent basierend auf der Kapazität weiterleiten und Key-Value (KV)-Caching verwenden, um Anwendungsfälle generativer KI zu beschleunigen, indem Prozesse beschleunigt werden, die auf der Beibehaltung von Informationen aus vorherigen Vorgängen basieren (anstatt ressourcenintensive Neuberechnungen zu erfordern). Aus Sicht der Infrastruktur können Organisationen, die KV-Cache-Daten speichern und wiederverwenden, dies zu einem Bruchteil der Kosten tun, die für die Verwendung von GPU-Speicher zu diesem Zweck anfallen würden.

„BIG-IP Next für Kubernetes, beschleunigt mit NVIDIA BlueField-3 DPUs, bietet Unternehmen und Dienstanbietern eine zentrale Kontrollstelle für die effiziente Weiterleitung des Datenverkehrs an KI-Fabriken, um die GPU-Effizienz zu optimieren und den KI-Datenverkehr für Datenaufnahme, Modelltraining, Inferenz, RAG und agentenbasierte KI zu beschleunigen“, sagte Ash Bhalgat, Senior Director of AI Networking and Security Solutions, Ecosystem and Marketing bei NVIDIA. „Darüber hinaus bietet F5 mit seiner Unterstützung für Multi-Tenancy und der verbesserten Programmierbarkeit mit iRules weiterhin eine Plattform, die sich gut für die weitere Integration und Funktionserweiterungen eignet, wie etwa die Unterstützung für NVIDIA Dynamo Distributed KV Cache Manager.“

  • Verbesserter Schutz für MCP-Server mit F5 und NVIDIA

Model Context Protocol (MCP) ist ein von Anthropic entwickeltes offenes Protokoll, das die Bereitstellung von Kontext für LLMs durch Applications standardisiert. Durch den Einsatz der kombinierten F5- und NVIDIA-Lösung vor MCP-Servern kann die F5-Technologie als Reverse-Proxy fungieren und so die Sicherheitsfunktionen für MCP-Lösungen und die von ihnen unterstützten LLMs verbessern. Darüber hinaus fördert die durch F5 iRules ermöglichte vollständige Datenprogrammierbarkeit eine schnelle Anpassung und Widerstandsfähigkeit gegenüber sich rasch entwickelnden KI-Protokollanforderungen sowie zusätzlichen Schutz vor neu auftretenden Cybersicherheitsrisiken.

„Organisationen, die agentenbasierte KI implementieren, verlassen sich zunehmend auf MCP-Bereitstellungen, um die Sicherheit und Leistung von LLMs zu verbessern“, sagte Greg Schoeny, SVP, Global Service Provider bei World Wide Technology. „Indem F5 und NVIDIA erweitertes Verkehrsmanagement und Sicherheit in umfangreiche Kubernetes-Umgebungen integrieren, liefern sie integrierte KI-Funktionssätze – zusammen mit Programmier- und Automatisierungsfunktionen –, die wir derzeit anderswo in der Branche nicht sehen.“

F5 BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, ist jetzt allgemein verfügbar. Weitere Technologiedetails und Bereitstellungsvorteile finden Sie unter www.f5.com. Besuchen Sie die Unternehmen auch bei NVIDIA GTC Paris, Teil der VivaTech 2025- Veranstaltung dieser Woche. Weitere Einzelheiten finden Sie auch in einem Begleitblog von F5 .

Über Sesterce

Sesterce wurde 2018 gegründet und ist ein führender europäischer Betreiber, der auf Hochleistungsrechner und Künstliche Intelligenz Infrastruktur spezialisiert ist. Mit vollständiger Kontrolle über die Wertschöpfungskette liefert das Unternehmen flexible, souveräne und nachhaltige Lösungen, die auf die Bedürfnisse von Start-ups, Großunternehmen und akademischen Einrichtungen zugeschnitten sind. Sesterce hat sich zum Ziel gesetzt, der europäische Marktführer im Bereich der KI-Infrastruktur zu werden und Innovatoren dabei zu unterstützen, zu wachsen und gleichzeitig ethische und ökologische Standards einzuhalten.

In diesem Sinne bietet Sesterce zusätzlich zu seiner Infrastruktur auch eine „KI-native“ Serviceebene: Es bietet eine Datenaufbereitung auf hohem Niveau, die heterogene Echtzeit-Streams aufnimmt und transformiert, liefert dedizierten Support für Very Large Language Models (VLLMs) für Organisationen, die groß angelegte Modelle entwickeln oder einsetzen, und stellt modulare Business-Intelligence-Lösungen bereit, die sowohl für KI-native Startups als auch für etablierte Unternehmen konzipiert sind. Darüber hinaus gewährleistet Sesterce durchgängige Privatsphäre und Kontrolle mit privaten KI- und Inferenzumgebungen, die den europäischen Souveränitäts- und Vertraulichkeitsstandards vollständig entsprechen.

Über F5

F5, Inc.(NASDAQ: FFIV) ist der weltweit führende Anbieter, der jede App bereitstellt und sichert. Mit drei Jahrzehnten Erfahrung hat F5 die branchenführende Plattform – die F5 Application Delivery and Security Platform (ADSP) – entwickelt, um jede App, jede API überall bereitzustellen und zu sichern: vor Ort, in der Cloud, am Edge und in hybriden Multi-Cloud-Umgebungen. F5 engagiert sich für Innovationen und arbeitet mit den größten und fortschrittlichsten Unternehmen der Welt zusammen, um schnelle, verfügbare und sichere digitale Erlebnisse zu bieten. Gemeinsam verhelfen wir uns gegenseitig zum Erfolg und schaffen eine bessere digitale Welt.

Weitere Informationen finden Sie unter f5.com
Entdecken Sie die Bedrohungsforschung von F5 Labs unter f5.com/labs
Folgen Sie uns, um mehr über F5, unsere Partner und Technologien zu erfahren: Blog | LinkedIn | X | YouTube | Instagram | Facebook

F5, BIG-IP, BIG-IP Next und iRules sind Marken, Dienstleistungsmarken oder Handelsnamen von F5, Inc. in den USA und anderen Ländern. Alle anderen hierin genannten Produkt- und Firmennamen können Marken ihrer jeweiligen Eigentümer sein.

# # #

Diese Pressemitteilung kann zukunftsbezogene Aussagen zu zukünftigen Ereignissen oder zur zukünftigen finanziellen Entwicklung enthalten, die mit Risiken und Unsicherheiten verbunden sind. Derartige Aussagen sind an Begriffen wie „kann“, „wird“, „sollte“, „erwartet“, „plant“, „nimmt an“, „glaubt“, „schätzt“, „sagt voraus“, „potenziell“ oder „fortsetzen“ bzw. der Verneinung dieser Begriffe oder vergleichbarer Begriffe zu erkennen. Bei diesen Aussagen handelt es sich lediglich um Vorhersagen. Die tatsächlichen Ergebnisse können aufgrund einer Reihe von Faktoren, einschließlich der in den Unterlagen des Unternehmens bei der SEC genannten, erheblich von den in diesen Aussagen erwarteten Ergebnissen abweichen.