BLOG | BÜRO DES CTO

Eingeschränkte Rechenleistung: Argumente für Hardwareoptimierung am Rand

Lori MacVittie Miniaturbild
Lori MacVittie
Veröffentlicht am 20. September 2021


Im Film „Apollo 13“ gibt es eine Szene, in der deutlich wird, wie wichtig Strom für den Betrieb von Geräten ist. Die für den Betrieb und den anschließenden Neustart des Raumfahrzeugs erforderliche Energie ist von entscheidender Bedeutung für die (Achtung, Spoiler!) erfolgreiche Rückkehr der Astronauten zur Erde.

Kraft ist alles
Dass Macht alles ist, veranschaulicht Ed Harris in der Rolle des Gene Kranz im Film „Apollo 13“.

Viele von uns ignorieren die Tatsache, dass jede von uns ausgeführte Anwendung Strom verbraucht – bis wir aufgrund eines Sturms oder eines anderen externen Ereignisses keinen Strom mehr haben. Da wir uns heutzutage bei der Steuerung unserer Lichter, beim Verriegeln unserer Türen und beim Fahren unserer Autos auf Anwendungen verlassen, wird der Energieverbrauch sowohl in Form von Stromverbrauch als auch in Form von CPU-Zyklen berechnet.

Wir machen vielleicht Witze darüber, wie langsam unser Browser heute läuft, und geben verlegen zu, dass es vielleicht daran liegt, dass wir dreißig oder mehr Tabs geöffnet haben, aber die Wahrheit ist, dass die Rechenleistung nicht unbegrenzt ist. In eingeschränkten Umgebungen – wie etwa am Rand – steht sogar noch weniger Rechenleistung für die Automatisierung, Datenverarbeitung und Kommunikation zur Verfügung, auf die wir uns bei der Arbeit, im Privatleben und in der Freizeit praktisch täglich verlassen.

Auch wenn wir die Grenzen des technisch Möglichen erweitert haben, erinnern uns die Rufe nach dem Ende von Moores Gesetz immer wieder daran, dass wir nur eine begrenzte Anzahl von Transistoren auf einen Quadratzoll quetschen können. Es gibt nur eine begrenzte Anzahl an Komponenten, die wir in ein Telefon zwängen können, und auch die Rechenleistung, die wir von einem in einem Mobilfunkmast installierten Server-Rack erwarten können, ist begrenzt.

Daher muss am Rand – der alle Geräte, Endpunkte und eingeschränkten Rechenknoten umfasst – die verfügbare Rechenleistung erhöht werden, ohne dass es dabei zu einer entsprechenden Vergrößerung von Größe und Platz kommt. Dieser Bedarf steht hinter der Renaissance der Infrastruktur ; einer von den meisten Menschen unbemerkten Bewegung, die sich auf die Nutzung spezialisierter (optimierter) Rechenleistung konzentriert, um die Gesamtkapazität dieser eingeschränkten Umgebungen effektiv zu erhöhen.

Die Entwicklung hardwareoptimierter Computer

Der Entwicklungspfad für hardwareoptimierte Berechnungen begann vor langer Zeit mit speziellen Beschleunigungskarten für die Kryptografie und führte schließlich zur GPU (Graphic Processing Unit) und jetzt zur DPU (Data Processing Unit).

Jede Entwicklung führte zu spezifischen Verarbeitungsaufgaben, die buchstäblich im Silizium fest codiert wurden, um exponentiell mehr Kapazität für eine schnellere und effizientere Datenverarbeitung zu erzeugen. Dies ist die Grundlage für die kryptografischen Beschleunigungskarten Mitte der 2000er Jahre, die letztendlich die Einführung von SSL Everywhere förderten, indem sie die Leistung der (kryptografischen) Ver- und Entschlüsselungsverarbeitung drastisch verbesserten. Ähnliche Fortschritte gab es auch in angrenzenden Märkten, wobei der Schwerpunkt auf der Verbesserung der Speicherverarbeitungsgeschwindigkeiten lag. Die TOE (TCP Offload Engine) ist „ein Netzwerkgerät, das TCP/IP-Protokolle auf einer Hardwarekarte implementiert. Die TOE-Schnittstelle bietet Data ONTAP außerdem eine Schnittstelle zur 1- oder 10-GbE-Infrastruktur. Die 10-GbE PCIe TOE-Karte unterstützt NFS-, CIFS- und iSCSI TCP- Anwendungen in Data ONTAP vollständig.“     

Grundsätzlich haben wir jedes Mal, wenn wir die Kapazität in eingeschränkten Umgebungen verbessern mussten – ob die Einschränkung nun wirtschaftlicher oder physischer Natur war – die Einführung optimierender Hardwarekomponenten erlebt.

Die DPU, derzeit dank NVIDIA und dem steigenden Interesse an KI- und ML-bezogenen Anwendungen der Liebling der Stunde, ist der aktuelle Ausdruck unserer Bemühungen, die physikalischen Beschränkungen der Rechenleistung zu überwinden.

Die Rolle der DPU am Rand

Umgebungen wie Edge benötigen die Leistungssteigerung, die durch hardwareoptimierte Berechnungen möglich ist. Ob für den Einsatz in der Fertigung, wo IIoT (Industrial Internet of Things) eine Echtzeitverarbeitung von Daten mit extrem geringer Latenz (weniger als 20 ms) erfordert, oder im Gesundheitswesen, wo die Geschwindigkeit der Verarbeitung von Gesundheitsdaten den Unterschied zwischen Leben und Tod ausmachen kann: hardwareoptimierte Rechenleistung ist eine Voraussetzung.

Dies bedeutet, dass jede anwendungszentrierte Plattform, die es Unternehmen ermöglichen soll, Edge-Vorteile zu nutzen, als Schlüsselfunktion hardwareoptimierte Berechnungen beinhalten muss.

Die DPU stellt eine Demokratisierung optimierter Rechenleistung dar. In Kombination mit dem richtigen Software-Stack und der richtigen Plattform kann Edge den Unternehmen die gleiche Effizienz und dieselben Vorteile bieten, die große Hyperscale-Anbieter derzeit genießen.

Deshalb arbeiten wir weiterhin mit Partnern wie NVIDIA zusammen . Auch wenn die Software alles auffrisst – auch die Edge-Umgebung – ist es immer noch die Hardware, die alles antreibt. Und diese Leistung kann durch Hardwareoptimierung ohne größeren Platzbedarf gesteigert werden.