In den letzten Jahrzehnten hat die Geschäftswelt aufgrund technologischer Revolutionen viele Wendepunkte erlebt und F5 war da, um unseren Kunden in diesen kritischen Phasen zu helfen.
Als Unternehmen mit der digitalen Transformation begannen, wurden Anwendungen zum Herzstück des Geschäfts und F5 sorgte dafür, dass sie in großem Maßstab bereitgestellt und gesichert werden konnten. Als 5G vor Kurzem versprach, die Geschäftswelt mit beispiellosen Geschwindigkeiten, Diensten und Zuverlässigkeit zu revolutionieren, war F5 zur Stelle, um Mobilfunkunternehmen bei der großflächigen Bereitstellung eines Cloud-nativen 5G-Kerns zu unterstützen.
Jetzt stehen wir wieder einmal an einem Wendepunkt, wahrscheinlich dem größten, den unsere Branche je erlebt hat, da Unternehmen nach Möglichkeiten suchen, die Leistungsfähigkeit der KI zu nutzen. Während Kunden diese transformative Technologie implementieren, hilft F5 ihnen, das volle Potenzial ihrer groß angelegten KI-Implementierungen auszuschöpfen.
Der zunehmende Einsatz von KI-Clustern treibt den Wandel hin zum beschleunigten Computing voran. Der Versuch, etablierte Praktiken in den Bereichen allgemeine Datenverarbeitung, Vernetzung, Sicherheit und Überwachung anzuwenden, führt häufig zu Ineffizienzen, Verzögerungen und steigenden Kosten.
Die immensen Datenverarbeitungsanforderungen der KI belasten die herkömmliche Netzwerkinfrastruktur erheblich und erschweren die Aufrechterhaltung einer optimalen Leistung. Als Schlüssellösung hat sich die NVIDIA BlueField-Datenverarbeitungseinheit (DPU) herausgestellt. Durch Auslagern und Beschleunigen bandbreitenintensiver Netzwerk- und Sicherheitsaufgaben – wie etwa Paketverarbeitung, Verschlüsselung und Komprimierung – bieten BlueField-3-DPUs optimale Cloud-Netzwerkkonnektivität. Diese Optimierung verbessert die Gesamtleistung und beschleunigt den Datenzugriff des Grafikprozessors (GPU).
Dienstanbieter und große Unternehmen bauen groß angelegte KI-Infrastrukturen oder KI-Fabriken auf und nutzen dabei die Full-Stack-Beschleunigungs-Computing-Plattform von NVIDIA, um generatives KI-Modelltraining und Inferenz im großen Maßstab durchzuführen. Unternehmen müssen ihre Investitionen in KI-Fabriken maximieren, die erheblich sein können. Doch ohne die richtige Grundlage kann es passieren, dass die KI-Infrastruktur nicht ausreichend genutzt wird.
F5 BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, wurde entwickelt, um diese Probleme zu lösen. Die Lösung konzentriert sich auf das Auslagern und Beschleunigen des F5 BIG-IP Next Service Proxy für Kubernetes (SPK) auf den BlueField-3 DPUs von NVIDIA . Es baut auf der Führungsrolle von F5 bei der Bewältigung kritischer Herausforderungen hinsichtlich Anwendungsbereitstellung und Sicherheit während wichtiger Marktwendezeiten auf und nutzt zugleich die Innovationen von NVIDIA im Bereich beschleunigtes Computing und Hochleistungsnetzwerke.
F5 BIG-IP Next SPK wurde entwickelt, um die Probleme zu lösen, mit denen Dienstanbieter bei der Umstellung auf 5G mit Kubernetes konfrontiert waren. Die 5G-Infrastruktur basiert auf einer Cloud-nativen Containerarchitektur, wobei Container-Workloads mit Kubernetes verwaltet werden. Allerdings war Kubernetes ursprünglich nicht für die komplexen Anwendungsfälle einer 5G-Umgebung vorgesehen. BIG-IP Next SPK half Telekommunikationsunternehmen dabei, Kubernetes-Netzwerke an eine 5G-Infrastruktur anzupassen und ihnen die Sichtbarkeit, Kontrolle und Sicherheit zu geben, die sie für die dynamische Skalierung ihrer 5G-Netzwerke benötigten. In den letzten Jahren haben Dienstanbieter BIG-IP genutzt, um die 5G-Technologie für Millionen von Abonnenten zum Leben zu erwecken.
So wie BIG-IP Next SPK eine zentrale Rolle bei der Aktivierung von 5G Core für den letzten Markttrend gespielt hat, entwickelt es sich jetzt weiter, um die Herausforderungen des KI-Markttrends und der Bereitstellung von KI-Workloads zu bewältigen, die Ähnlichkeiten mit 5G-Workloads aufweisen, aber exponentiell höhere Verkehrsvolumina mit sich bringen. Um den Anforderungen dieser neuen Marktentwicklung gerecht zu werden, veröffentlicht F5 BIG-IP Next für Kubernetes auf NVIDIA BlueField-3 DPUs, um den enormen Datenverkehr zu KI-Servern effektiv zu verwalten.
Diese Lösung transformiert die moderne Anwendungsbereitstellung, um den Anforderungen generativer KI gerecht zu werden. Es handelt sich um eine Kubernetes-native Implementierung der BIG-IP-Plattform von F5, die Netzwerk-, Sicherheits- und Lastausgleichs-Workloads handhabt und an der Demarkationsstelle zwischen dem KI-Cluster und anderen Teilen von Rechenzentren sitzt. BIG-IP Next für Kubernetes ordnet KI-Cluster-Namespaces der Netzwerkmiete von Rechenzentren zu und sorgt so für angemessene Sicherheit und vereinfachte Verwaltung. Durch die Nutzung der Hardwarebeschleuniger der BlueField-3 DPU beschleunigt BIG-IP Next für Kubernetes eine Vielzahl von Netzwerk- und Datendiensten und optimiert die Energieeffizienz durch Entlastung der CPU-Rechenressourcen.
So erwähnte Meta beispielsweise bei seiner Veranstaltung Networking @Scale 2024 Anfang dieses Jahres, dass das Training seines Open-Source-Lernsprachenmodells (LLM) Llama 3 durch Netzwerklatenz behindert wurde, was durch die Feinabstimmung der Hardware-Software-Interaktionen behoben werden konnte. Dieser Ansatz steigerte die Gesamtleistung um 10 %. Während 10 % wie ein kleiner Gewinn erscheinen, bedeutet diese Verbesserung bei einem Modell, dessen Training Monate dauert, eine Zeitersparnis von mehreren Wochen.
F5 BIG-IP Next für Kubernetes, bereitgestellt auf BlueField-3 DPUs, bietet zahlreiche Vorteile für Dienstanbieter und große Unternehmen, die große KI-Infrastrukturen aufbauen möchten. Dazu gehören:
Durch sorgfältige Abwägung der Herausforderungen und verfügbaren Lösungen können Unternehmen erfolgreich für KI optimierte Rechenzentren bereitstellen, ohne den laufenden Betrieb zu stören oder die Sicherheit zu gefährden. F5 BIG-IP Next für Kubernetes, bereitgestellt auf BlueField-3 DPUs, erweist sich als attraktive Option, da es nahtlose Integration, verbesserte Sicherheit und verbesserte Leistung für KI-Workloads bietet, darunter auch groß angelegte LLMs wie Llama 3.
Weitere Informationen finden Sie in unserer Pressemitteilung und im Blogbeitrag von NVIDIA .