La surveillance des performances des applications (APM) en tant qu’industrie est une industrie expérimentée. Ses racines remontent à avant l’émergence d’Internet en tant que plateforme. D’abord confiné au centre de données, il est né en réponse à un besoin de comprendre l’expérience utilisateur dans le contexte d’Internet.
La première phase était dominée par des techniques passives qui tentaient de comprendre l’expérience utilisateur à l’aide de transactions synthétiques. Dominé par des fournisseurs possédant des points de présence hautement distribués sur Internet, la surveillance passive fournissait aux opérateurs de sites une vue historique des performances de leur application à partir d'une base d'utilisateurs de plus en plus distribuée dans le monde entier.
Les techniques passives ont été la première véritable tentative de mesurer l’expérience utilisateur. Ils ont proposé une vue moyenne générique des performances, largement basée sur les chemins réseau entre le point de présence et l'application. Étant donné que la plupart des points de présence étaient situés sur ou à proximité du réseau fédérateur Internet, ils n’étaient pas en mesure de prendre en compte l’impact du « dernier kilomètre » entre le réseau fédérateur et le client.
De plus, le recours aux transactions synthétiques ne permettait souvent pas de représenter avec précision une interaction ou une transaction réelle avec un utilisateur. Ainsi, les mesures obtenues étaient plus révélatrices de la santé d’Internet et de la disponibilité d’une application que de l’expérience utilisateur.
Les systèmes de surveillance passive étaient très efficaces pour identifier les nœuds intermédiaires sur Internet comme source de problèmes de performances des applications. Ils n’étaient pas très doués pour identifier les problèmes des clients ou des applications, ni pour surveiller l’expérience utilisateur réelle.
Ces insuffisances ont donné lieu à une technique plus agressive : la surveillance active . Cette phase était dominée par des fournisseurs qui inséraient de minuscules morceaux de code dans l’application cliente, ce qui fournissait ensuite des données de performances plus précises. Ces solutions ont résolu le problème du dernier kilomètre et ont également reconnu l’impact du rendu sur les performances de l’application. En surveillant les interactions en direct, la surveillance active a fourni une perspective beaucoup plus réaliste de l'expérience utilisateur.
La surveillance active a résolu les insuffisances de la surveillance passive et nous pouvons aujourd'hui collecter des données sur l'ensemble de l'expérience utilisateur, du client au réseau en passant par les applications et leurs systèmes back-end.
Mais cela ne signifie pas que nous en avons terminé avec l’évolution de la surveillance. Car même si nous avons répondu au besoin fondamental d’identifier les problèmes de performances existants, cela ne suffit plus. Près d'un tiers (32 %) de tous les clients « cesseraient de faire affaire avec une marque qu'ils aiment après une mauvaise expérience ». ( PWC )
Il ne suffit pas d’identifier ce qui s’est mal passé après coup. Il devient de plus en plus important pour les entreprises d’identifier où les problèmes pourraient survenir avant qu’ils ne surviennent.
C’est pourquoi nous pensons que la prochaine phase de surveillance sera prédictive.
La surveillance prédictive est souvent associée à l’apprentissage automatique pour une bonne raison. La capacité à prédire les pannes ou les problèmes de performance dépend entièrement de l’expérience. Dans le cas des performances des applications, cette expérience est dérivée de données sur des centaines et des milliers d’expériences utilisateur précédentes.
Grâce à un ensemble robuste de données sur les expériences utilisateur qui couvre l'étendue et la profondeur de l'ensemble du chemin de données de l'application, les analyses peuvent découvrir des modèles et des relations entre un ensemble complexe de variables telles que l'heure de la journée, l'emplacement, la fonction commerciale, le navigateur, le système d'exploitation et le réseau. La capacité de prédire un problème repose sur la relation, l’interaction et l’état actuel de tous ces composants.
En étant capable de reconnaître les performances aberrantes et anormales d’un composant donné, la surveillance prédictive peut identifier les conditions dans lesquelles l’expérience utilisateur pourrait en souffrir et déclencher une alerte.
Si l’alerte est donnée suffisamment tôt, des mesures peuvent être prises pour rectifier la situation avant qu’elle ne devienne un problème ayant un impact sur l’entreprise.
Nous pensons que non seulement la surveillance prédictive est la prochaine évolution de la surveillance des performances des applications, mais qu’elle est une évolution nécessaire. À mesure que les organisations continuent de dépendre de plus en plus des applications, ces dernières deviennent aussi essentielles que n’importe quelle machine sur une chaîne de montage pour la santé de l’entreprise.
Tout comme la maintenance prédictive est une capacité essentielle dans la fabrication de biens durables, la surveillance prédictive sera une capacité cruciale dans la fourniture d’expériences numériques.