Ich habe vor Kurzem „Der letzte Fermatsche Satz“ ( Simon Singh ) zu Ende gelesen, ein Buch, das – Sie werden überrascht sein zu erfahren – voller Drama, Intrigen, Mord und Mätressen ist. Wirklich. In der Geschichte der Mathematik wimmelt es von Leuten, die trotz ihres enormen Verständnisses von Konzepten, die wir Normalsterblichen nicht wirklich begreifen, letztlich aber auch nur Menschen sind.
Aber darum geht es heute nicht wirklich. Der entscheidende Punkt ist, dass Mathematiker seit über 350 Jahren versuchen, den sogenannten Großen Fermatschen Satz zu beweisen (oder zu widerlegen). Es handelte sich eher um eine Vermutung, als der brillante (Amateur-)Mathematiker feststellte, dass der Satz des Pythagoras zwar nahezu axiomatisch sei, jedoch nur für Quadratzahlen gelte. Das heißt, Sie können keine Antwort auf: an + bn = cn finden, wenn „n“ eine andere Zahl als „2“ ist. Was die Mathematiker offenbar wirklich in den Wahnsinn trieb, war die Feststellung Fermats, dass er zwar einen wirklich wunderbaren Beweis dafür habe, der Rand des Buches, in dem er seinen Kommentar abgab, dafür jedoch zu klein sei.
Und sie konnten den Beweis nirgends finden.
Also machten sich Mathematiker daran, diese Theorie zu beweisen oder zu widerlegen. Kurz gesagt, endlich hat es jemand getan . Dafür musste er allerdings zwei völlig unterschiedliche Disziplinen der Mathematik kombinieren. Disziplinen, die es noch nicht gab, als Fermat seine Behauptung aufstellte. Einige davon lassen sich auf Versuche zurückführen, den Großen Fermatschen Satz und andere anspruchsvolle mathematische Probleme zu lösen. Eine der Disziplinen, die zur Lösung des Großen Fermatschen Theorems verwendet wurden, war das Studium elliptischer Kurven. Wenn Ihnen das bekannt vorkommt, dann deshalb, weil elliptische Kurven die Grundlage für ECC ( Elliptic Curve Cryptography ) bilden, das heutzutage zunehmend als Ersatz für die älteren, anfälligeren Verschlüsselungsverfahren bevorzugt wird.
Einer der Vorteile der Lösung eines Problems in einer mathematischen Disziplin besteht grundsätzlich darin, dass sie oft Innovationen in anderen, verwandten, aber deutlich getrennten mathematischen Disziplinen anregt.
Nun fragen Sie sich wahrscheinlich, warum im Titel dann auf „Hardware“ Bezug genommen wird. Hardware ist Hardware, oder? Ich meine, welche möglichen Innovationen kann die Hardware anstoßen, die in der heutigen Welt, in der Software alles auffrisst, um Apps bereitzustellen, relevant sind?
Natürlich Software.
Es zeigt sich, dass Sie, wenn Sie Ihre eigene Hardware bauen, um die erforderliche Kapazität und Geschwindigkeit für die auf der Nord-Süd-Landebahn des Rechenzentrums bereitgestellten Dienste sicherzustellen, auch die zugehörige Software entwickeln müssen. Sehen Sie, Hardware an sich besteht zum größten Teil nur aus Ressourcen. Auch das ändert sich, aber das ist ein Thema für einen anderen Blogtag. Die Realität besteht größtenteils darin, dass die Hardware Ressourcen bereitstellt. Software ist die Magie, die diese Ressourcen in Verbrauchsgüter verwandelt, die letztendlich für die Dienste verwendet werden, die jede Sekunde des Tages Apps über das Internet sichern und bereitstellen. Wenn also jemand die Ankunft neuer Hardware in der Netzwerkwelt ankündigt, kündigt er gleichzeitig auch neue Software an. Denn ohne die entsprechende Software bringt individuelle Hardware nicht viel.
Hier überwindet die Innovation nun die Hardware- und Software-Kluft. Diese Software kann von der Originalhardware auf Standardhardware (COTS) übertragen werden. Das sind Ihre Allzweckserver, die so genannt werden, weil sie für nichts wirklich optimiert sind, da sie alles unterstützen müssen. Doch die Software, die zuvor auf speziell angefertigter Hardware lief, wird optimiert und auch die Tricks und Tipps, die die Ingenieure im Laufe der Zeit gelernt und verfeinert haben, werden auf die Softwareversion übertragen.
Und viele davon sind tatsächlich anwendbarer, als Sie denken. Sehen Sie, es gibt Chips von Leuten wie Intel, die in individuell angefertigter Hardware verwendet werden und auch in Standardsystemen vorhanden sind. Die leistungs- oder kapazitätssteigernden Eigenschaften dieser Chips werden von der meisten Software jedoch nicht genutzt, da sie nicht für diese Hardware entwickelt wurde. Bei manchen Systemen war dies jedoch der Fall, und das bedeutet, dass diese Software, wenn sie auf Standardhardware übertragen wird, viele ihrer Leistungs- und Kapazitätsvorteile gegenüber anderer Software behält, die für denselben Zweck entwickelt wurde, aber die spezielle Hardware nicht nutzt.
Der Versuch, die mit Software verbundenen Leistungs- und Kapazitätsprobleme zu lösen (bereits in den 1990er Jahren), führte zu einem umfassenden Einsatz von Hardware im Netzwerk, einschließlich neuer interner Architekturen im Zusammenhang mit der Datenübertragung im System. Diese Tricks und Techniken werden jetzt wieder in Software übertragen, um Leistung und Kapazität zu verbessern. Wenn Leute die Aufgabe haben, schnelle und leistungsstarke Software zu entwickeln, weil es für die Hardware, für die sie entwickeln, keine Plattform gibt, denken sie sich neue Methoden aus. Sie stellen alte Annahmen in Frage und entdecken bessere Möglichkeiten zur Manipulation, Überprüfung und Änderung von Daten, während diese das System durchlaufen. Sie entwickeln neue Algorithmen und bessere Datenstrukturen, die das Speichermanagement und die Protokollanalyse verbessern.
Die meisten Menschen bringen Hardware zwar nicht mit Innovation in Verbindung, doch die Realität ist, dass – genau wie in der Mathematik – die Lösung eines Problems in einer Disziplin zu Innovationen in anderen Disziplinen führt. Das beobachten wir ständig, wenn wir die BIG-IP-Software unserer kundenspezifischen Hardwareplattformen auf die Standardhardware migrieren, die in privaten, lokalen und öffentlichen Cloudumgebungen verwendet wird. Das „Lift and Shift“ erfordert Arbeit; die Software muss angepasst werden, um in virtualisierte, containerisierte und Cloud-Formfaktoren zu passen. Die Innovationen, die sich aus der neuen Hardware ergeben, bleiben jedoch bestehen und sorgen auch auf standardisierten Plattformen für einen schnelleren, skalierbareren und effizienteren Betrieb.
Die Entwicklung neuer Hardware und die Anpassung der Software an ihre neuen Fähigkeiten bedeutet letztendlich eine Innovation der Software, unabhängig davon, ob diese auf kundenspezifischer oder Standardhardware ausgeführt wird. Und deshalb ist es aufregend, wenn neue Hardware vorgestellt wird. Weil es der Vorbote der Innovation ist.
Das ist das Hardware-Innovationstheorem. Genauso wie die Lösung des Fermatschen Theorems zu mehr Innovationen in der Mathematik führen und diese Fortschritte auch auf die Bereiche Kryptografie und Sicherheit übertragen wird, wird die Lösung der Herausforderung, Software an neue kundenspezifische Hardware anzupassen, zu mehr Innovationen in dieser Software führen und sich in den kommenden Jahren auf den Bereich der lokalen und Cloud-Rechenzentren auswirken.