Die Beschleunigung der digitalen Transformation, die mit einer stetig fortschreitenden Einführung „intelligenter“ Technologien bei den Verbrauchern einhergeht, führt zu Wellen der Datengenerierung, die die Systeme und Unternehmen, die bei ihrer Wertschöpfung zunehmend auf Daten angewiesen sind, zu überfordern drohen.
Diese neue Realität verlagert die Datenverarbeitung aus ihrem traditionellen Epizentrum, dem Rechenzentrum, in die öffentliche Cloud und an die Ränder. Auch dies wird sich zwangsläufig als ineffizient erweisen und es wird an der nötigen Reaktionsfähigkeit mangeln, um die Verbraucher zufriedenzustellen und dem Bedarf an Echtzeit-Datenverarbeitung für das IoT sowie der zunehmenden Nutzung künstlicher Intelligenz für die intelligente Automatisierung gerecht zu werden. Das Ende des Mooreschen Gesetzes bedeutet, dass die CPU-zentrierte Infrastruktur ihre Grenzen erreicht hat, unabhängig davon, wo sie sich physisch befindet.
Daher sind Unternehmen auf der Suche nach effizienteren, modernen Computerarchitekturen, die mehrere Mandanten unterstützen und Anwendungen im Rechenzentrumsmaßstab mit allen erforderlichen Leistungs- und Sicherheitsstufen bereitstellen können.
Um das erforderliche Maß an Leistung und Sicherheit zu erreichen, müssen Bereitstellungs- und Sicherheitsdienste Technologien nutzen, die in der Lage sind, die Sicherheits-, Speicher- und Netzwerkverarbeitung auszulagern, zu beschleunigen und zu isolieren.
Eine der Schwierigkeiten bei der Umsetzung dieses Ansatzes bestand immer darin, Unternehmen die Nutzung dedizierter Hardware zu ermöglichen, ohne ein Expertenteam für Systementwicklung und Hardwareprogrammierung zu beschäftigen. Die Appliance-Modelle, die dieses Problem in der Vergangenheit gelöst haben, sind für eine von Cloud und Edge dominierte Zukunft nicht geeignet.
Die moderne Antwort besteht in der Bereitstellung einer Plattform und eines Rahmens, die es Infrastrukturanbietern und Unternehmen gleichermaßen ermöglicht, schnell Dienste und Systeme zu entwickeln, die die Vorteile einer dedizierten Hardwareressource nutzen können. Eine solche Antwort bietet die NVIDIA BlueField-3 DPU und das NVIDIA Morpheus AI-Framework für Cybersicherheit .
NVIDIA BlueField-3 DPU ist eine Rechenzentrumsinfrastruktur auf einem Chip der 3. Generation, die es Unternehmen ermöglicht, eine softwaredefinierte, hardwarebeschleunigte IT-Infrastruktur von der Cloud über das zentrale Rechenzentrum bis zum Rand aufzubauen. Die neue DPU-Plattform entlastet, beschleunigt und isoliert softwaredefinierte Netzwerk-, Speicher-, Sicherheits- und Verwaltungsfunktionen von den Anwendungs-Workloads und verbessert so die Leistung, Effizienz, Skalierbarkeit und Sicherheit des Rechenzentrums deutlich.
Das NVIDIA Morpheus-KI-Framework bietet vortrainierte KI-Modelle, die Entwicklern leistungsstarke Tools zur Vereinfachung ihrer Arbeitsabläufe und zur Erkennung und Eindämmung von Sicherheitsbedrohungen bieten. In Verbindung mit NVIDIA BlueField-2 DPUs sind Sicherheit, Virtualisierung, Überwachung und Richtliniendurchsetzung auf jedem Server verfügbar. Wir sehen in beiden Bereichen das Potenzial, den Zugriff auf eingebettete Analysen und Sicherheit in der Cloud und am Edge zu beschleunigen.
F5 ist davon überzeugt, dass die von NVIDIA gezeigten Fortschritte bei Prozessor-, Plattform- und Chipsatztechnologien es möglich gemacht haben, die Ressourcennutzung für spezielle Workloadtypen durch spezialisierte Berechnungen deutlich zu optimieren. Wir sehen faszinierende Vorteile bei der Schaffung intelligenter „Industriesysteme“ für spezielle Anwendungen und damit grenzenlose Möglichkeiten für die Etablierung attraktiver IoT-Lösungen, bei denen eine lokale Echtzeitverarbeitung erforderlich ist. Wir freuen uns besonders über die Echtzeit-Vorverarbeitung von Telemetriedaten und die vielen anderen Funktionen, die wir in unserem gesamten Produktportfolio und auf unserer Edge-as-a-Service-Plattform Volterra ermöglichen können.
Wie bei allen Hardwareplattformen werden Unternehmen von DPUs profitieren, wenn sich ein ergänzendes Software-Ökosystem entwickelt. Um dieses Ökosystem zu ermöglichen, müssen Entwicklern eine einheitliche und transparente Möglichkeit geboten werden, die Beschleunigungs- und Offload-Funktionen der DPU zu nutzen. Einer unserer vielen Innovationsbereiche konzentriert sich auf die Ermöglichung dieses Ökosystems und die Bereitstellung von Unternehmen, um die Sicherheit und Bereitstellung ihrer Anwendungen mithilfe der von ihren Anbietern bereitgestellten Hardware zu optimieren. Wir stellen fest, dass Technologien wie Container und Web Assembly (WASM) die Möglichkeit bieten, diese Funktion für DPUs bereitzustellen und das erforderliche Ökosystem zu ermöglichen, ohne dass zusätzliche Komplexität entsteht oder vom Endbenutzer Fachkenntnisse im Hardwarebereich erforderlich sind.
Gemeinsam mit NVIDIA ermöglichen wir bereits seit langem die Auslagerung und Beschleunigung bestimmter Funktionen mithilfe von NVIDIA ConnectX SmartNICs. F5 und NVIDIA planen, gemeinsam mit Kunden an den BlueField-2- und BlueField-3-Funktionen zu arbeiten, um Lösungen bereitzustellen, die es Unternehmen ermöglichen, von der Auslagerung und Beschleunigung von Anwendungssicherheits- und Bereitstellungsdiensten im großen Maßstab zu profitieren. Angesichts unserer einzigartigen Geschichte und Expertise in der Entwicklung von Software, die die Vorteile der Hardware nutzen kann, freut sich F5 auf die Zusammenarbeit mit NVIDIA, um das Potenzial des aufkommenden Vorsprungs für unsere Kunden freizusetzen.