Nos clients nous ont dit que « la lenteur est la nouvelle tendance ». Avoir de mauvaises performances applicatives est aussi grave que d'être victime de la plupart des propriétaires et opérateurs d'applications modernes. FAANG Les entreprises ont habitué les consommateurs à des performances constamment excellentes, et les consommateurs qui sont clients d'autres logiciels commencent à avoir les mêmes attentes, en particulier lorsque les concurrents sur un marché encombré offrent une bonne expérience utilisateur.
Certains clients nous ont même dit que des performances lentes peuvent souvent être pires qu’une panne totale. Avoir quelque chose qui semble fonctionner de manière alléchante, puis devoir réessayer encore et encore est plus aggravant que de simplement avoir un manque de fonction. Par exemple, la qualité de la voix sur IP est mauvaise et les deux parties doivent répéter sans cesse, alors que la voix sur IP n'est pas disponible, ce qui pousse les gens à utiliser un téléphone portable ou fixe.
L’importance de répondre aux attentes des clients en matière d’expérience est reconnue comme élevée dans tous les secteurs. Une enquête menée en 2020 auprès du secteur de la vente au détail a révélé que l’amélioration de l’expérience client était une priorité numérique majeure pour près d’un tiers (32 %) des répondants. Plus de 71 % ont cité l’amélioration de l’expérience client comme le principal résultat commercial à court terme qu’ils recherchaient dans le cadre de leurs efforts de transformation numérique.
Il est désormais évident que les opérateurs et les acteurs du monde des affaires se soucient tous de leurs utilisateurs. L’une des raisons pour lesquelles les mauvaises performances ne sont pas traitées est le manque de visibilité sur les causes de la « lenteur » ou sur ce que « lenteur » signifie pour une application comme la leur. Parfois, ce manque de visibilité est le résultat direct d’un manque de mesure.
Une enquête de Turbonomic expose ce phénomène (c'est nous qui soulignons) : « Lorsque nous avons demandé aux répondants comment leur organisation mesurait les performances des applications, il était prometteur de constater que plus de 60 % d'entre eux les mesuraient sous une forme ou une autre. Mais l’approche la plus courante consistait à mesurer la disponibilité, par opposition à la gestion des objectifs de niveau de service (SLO), qui prennent généralement la forme de temps de réponse ou de débit de transaction. 13 % ne mesurent pas du tout les performances des applications.
Mais avant de louer ceux qui mesurent , notez ce qu’ils mesurent. L’approche la plus courante pour mesurer la performance consistait à mesurer la disponibilité. La disponibilité est une mesure de haut en bas. Ce n’est pas une mesure de lenteur ou de rapidité, même si nous pourrions passer un blog entier (ou plus) à argumenter que cela devrait l’être.
Mais ce n’est pas le cas, et l’une des raisons réside dans la mesurabilité des coûts de l’entreprise. L’impact financier des temps d’arrêt est bien documenté. Nous pouvons trouver plusieurs sources qui fournissent des répartitions détaillées des coûts au sein de l’organisation. Mais pour la performance ? Nous avons quelques enquêtes qui mettent en évidence les réponses des utilisateurs sous forme d'abandon ou de médias sociaux négatifs. Mais quels sont les coûts réels pour l’entreprise ? Quasiment inexistant.
En général, nous pouvons résumer le problème de la mesure des performances aujourd'hui ainsi : « Nous ne mesurons pas le coût de la lenteur. « Nous mesurons le coût des temps d’arrêt. » Les humains ont tendance à travailler en fonction de ce sur quoi ils sont mesurés. Ce n’est pas un concept nouveau et, en fait, c’est l’un des principes de DevOps et la raison pour laquelle la méthodologie inclut un changement dans les mesures vers ce qui compte le plus. Chez F5, nous prévoyons non seulement de vous aider à mesurer à une échelle absolue, mais également par rapport aux données des applications d'autres personnes pour voir comment vos utilisateurs finaux expérimentent vos applications par rapport à la façon dont ils expérimentent d'autres applications similaires.
Ce qui compte le plus, c'est de répondre aux attentes des utilisateurs finaux et aujourd'hui, cela signifie plus que simplement être disponible ; cela signifie également être rapide et fiable. Nous prévoyons d'aider les propriétaires d'applications non seulement avec des données et des visualisations sur l'expérience de l'utilisateur final, mais également avec des informations, exprimées en langage naturel telles que « Les modifications que vous avez poussées en production au cours du week-end ont amélioré l'expérience typique du lundi matin pour vos utilisateurs finaux, excellent travail ! » ou « Votre expérience pour les utilisateurs de Chrome à New York devrait être pire que la moyenne des applications bancaires comme la vôtre dans quatre jours. Voici la modification de la politique d’équilibrage de charge que nous vous recommandons d’apporter à vos équilibreurs de charge NGINX dans AWS US East. N'hésitez pas à effectuer le changement vous-même ou cliquez ici pour que nous le fassions pour vous.
Si vous souhaitez des réponses à des questions telles que :
...alors restez à l’écoute pour les articles de suivi où nous entrerons plus en détail.