Il y a une scène dans le film Apollo 13 dans laquelle l'importance de l'électricité pour le fonctionnement des équipements est démontrée. L'énergie nécessaire au fonctionnement puis au redémarrage de l'engin est essentielle au succès éventuel (alerte spoiler) du retour des astronautes sur Terre.
La réalité que beaucoup d’entre nous ignorons – jusqu’à ce que nous perdions de l’électricité en raison d’une tempête ou d’un autre événement externe – est que chaque application que nous exécutons consomme de l’énergie. Notre dépendance actuelle aux applications pour faire fonctionner nos lumières, verrouiller nos portes et faire fonctionner nos voitures signifie que l’énergie est calculée à la fois sous la forme de consommation électrique et de cycles CPU.
Nous pouvons plaisanter sur la lenteur de notre navigateur aujourd’hui et admettre timidement que cela est peut-être dû au fait que nous avons trente onglets ou plus ouverts, mais la vérité est que la puissance de calcul n’est pas illimitée. Dans tout environnement contraint, comme l’edge computing, il y a encore moins de puissance de calcul pour exécuter l’automatisation, le traitement des données et les communications sur lesquels nous comptons pratiquement tous les jours pour le travail, la vie et les loisirs.
Même si nous avons repoussé les limites techniques du possible, les cris de la fin de la loi de Moore continuent de nous rappeler qu’il n’y a qu’un nombre limité de transistors que nous pouvons intégrer dans un pouce carré. Il n’y a qu’un nombre limité de composants que nous pouvons intégrer dans un téléphone, et il n’y a qu’un nombre limité de puissance de calcul que nous pouvons attendre d’un rack de serveurs installé dans une tour de téléphonie mobile.
Ainsi, la périphérie, composée de tous les appareils, points de terminaison et nœuds de calcul contraints, a besoin d’un moyen d’augmenter sa puissance de calcul disponible sans augmentation complémentaire de la taille et de l’espace. Ce besoin est à l’origine de la renaissance des infrastructures ; un mouvement qui passe inaperçu auprès de la plupart des gens et qui se concentre sur l’exploitation de la puissance de calcul spécialisée (optimisée) pour augmenter efficacement la capacité globale de ces environnements contraints.
Le chemin évolutif vers le calcul optimisé par le matériel a commencé il y a longtemps avec des « cartes » d’accélération spécialisées ciblant la cryptographie et a finalement produit le GPU (unité de traitement graphique) et maintenant le DPU (unité de traitement de données).
Chaque évolution a extrait des tâches de traitement spécifiques qui sont désormais codées en dur, littéralement, dans le silicium pour produire une capacité exponentiellement plus importante pour traiter les données plus rapidement et plus efficacement. C'est la base des cartes d'accélération cryptographique du milieu des années 2000 qui ont finalement encouragé l'adoption de SSL Everywhere en améliorant considérablement les performances du traitement de cryptage et de décryptage (cryptographique). Des avancées similaires ont eu lieu sur les marchés adjacents, l’accent étant mis sur l’amélioration des vitesses de traitement du stockage. Le TOE (TCP offload engine) est « un périphérique réseau qui implémente les protocoles TCP/IP sur une carte matérielle. L'interface TOE fournit également à Data ONTAP une interface vers l'infrastructure 1 ou 10 GbE. La carte TOE PCIe 10 GbE prend entièrement en charge les applications NFS, CIFS et iSCSI TCP dans Data ONTAP.
Fondamentalement, chaque fois que nous avons eu besoin d’améliorer la capacité dans des environnements contraints – que cette contrainte soit économique ou physique – nous avons assisté à l’introduction de composants matériels d’optimisation.
Le DPU, actuellement le chouchou du jour grâce à NVIDIA et à l’intérêt croissant pour les applications liées à l’IA et au ML, est la manifestation actuelle de nos efforts pour surmonter les contraintes physiques du calcul.
Les environnements tels que Edge ont besoin de l’augmentation de puissance provenant d’un calcul optimisé au niveau du matériel. Qu'il s'agisse d'une utilisation dans le secteur manufacturier, où l'IIoT (Internet industriel des objets) nécessite un traitement des données en temps réel avec une latence extrêmement faible (moins de 20 ms), ou dans le secteur de la santé, où la vitesse de traitement des données de santé peut faire la différence entre la vie et la mort, le calcul optimisé au niveau du matériel est une exigence.
Cela signifie que toute plate-forme centrée sur les applications cherchant à permettre aux organisations de tirer parti de l'edge computing doit inclure le calcul optimisé au niveau du matériel comme capacité clé.
Le DPU représente une démocratisation de la puissance de calcul optimisée. Associé à la bonne pile logicielle et rendu possible par la bonne plateforme , l'edge computing sera en mesure d'offrir aux entreprises les mêmes gains d'efficacité et les mêmes avantages dont bénéficient actuellement les grands fournisseurs hyperscale.
C'est pourquoi nous continuons à travailler avec des partenaires comme NVIDIA . Même si les logiciels dévorent tout, y compris l’edge computing, c’est toujours le matériel qui alimente tout. Et cette puissance peut être augmentée sans nécessiter plus d’espace en tirant parti de l’optimisation matérielle.