Il n’y a pas un secteur industriel ou une entreprise qui ne se transforme aujourd’hui grâce aux logiciels, qui permettent d’offrir de nouveaux services digitaux, afin de conquérir de nouveaux marchés et de réduire les coûts opérationnels. Une quête d’amélioration continue pour laquelle les organisations sont prêtes à dépenser près d’1,2 milliards de dollars cette année, selon IDC. Et si l’objectif consiste à fournir à leurs clients et à leurs utilisateurs des expériences de meilleure qualité, pas une semaine ne passe sans que des problèmes de performance logicielle n’entrainent des interruptions applicatives.
Dans un monde digital ultra connecté, où tout est accessible tout le temps, quelques millisecondes d’indisponibilité suffisent à faire perdre des millions en recettes. Et à mesure que notre dépendance aux logiciels s’accroît, la marge d’erreur, elle, se réduit.
Face au chaos que peuvent causer les problèmes de performance, les équipes IT doivent en identifier rapidement la cause afin de travailler à leur résolution avant que les utilisateurs ne soient impactés. Dans le même temps, le paysage logiciel ne cesse d’évoluer pour accélérer les rythmes d’innovation, tandis que les applications d’entreprise et les environnements cloud hybrides sur lesquels elles s’exécutent deviennent de plus en plus complexes et dynamiques. Les organisations dépendent désormais de milliers de services étroitement connectés, qui fonctionnent avec des millions de lignes de code et des milliards de dépendances. Une chaîne de livraison si complexe qu’il devient extrêmement difficile d’identifier avec précision un point particulier de défaillance. Et si cette complexité n’est pas contrôlée, les problèmes de performance vont immanquablement se multiplier et s’aggraver, créant un risque bien trop important pour l’entreprise.
Agilité, le revers de la médaille
L’adoption galopante du cloud n’est évidemment pas étrangère à cette escalade de complexité. Dans les stacks IT cloud, tout est déterminé par les logiciels. Les applications sont conçues comme des microservices qui s’exécutent dans des conteneurs, les réseaux et les infrastructures sont virtualisés, et toutes les ressources sont partagées par l’ensemble des applications. Cette approche a d’ailleurs été largement privilégiée dans les stratégies de transformation digitale des entreprises, et leur a permis de gagner en agilité et en capacité d’innovation.
Mais l’inconvénient de cette approche, c’est qu’elle ne tient pas compte de cette extrême complexité. Pour bien comprendre leurs applications, les équipes IT ont besoin de comprendre toute la stack, d’avoir une visibilité sur chaque niveau, et pas seulement sur la couche applicative. A défaut, elles se retrouvent
dans l’impossibilité d’identifier la cause d’un problème et de le corriger rapidement: comment résoudre un incident quand on ne peut pas déterminer d’où il provient et pourquoi ?
Les applications étant de plus en plus structurantes pour le métier, les conséquences de cette incapacité à détecter et résoudre rapidement les problèmes de performance sont de plus en plus dommageables. Si l’indisponibilité d’un site de banque en ligne par exemple s’avère aujourd’hui agaçante, qu’en serait-il demain d’un bug dans le code de votre voiture autonome ? Les conséquences pourraient être catastrophiques. Les entreprises doivent agir maintenant si elles ne veulent pas perdre le contrôle sur la performance future de leurs applications, et éviter les conséquences fâcheuses sur leur activité.
Vous avez dit AI ?
Que les équipes IT se rassurent, une nouvelle génération d’intelligence artificielle a émergé au cours des dernières années : l’AIOps. Les outils d’AIOps identifient et trient automatiquement les problèmes et évitent aux équipes IT de crouler sous les alertes remontées par leurs solutions de monitoring. Ce marché mondial de l’AIOps devrait même atteindre 11 milliards de dollars d’ici 2023, ce qui traduit une réelle appétence pour ces capacités.
Mais ces solutions ont également leurs limites, si bien qu’on voit émerger de nouvelles approches de monitoring, plus holistiques, qui combinent fonctionnalités de l’AIOps et de l’AI déterministe. Le principe : accéder à une intelligence logicielle basée sur l’analyse en temps réel et la mise en contexte des données de performance. Les équipes IT obtiennent ainsi des réponses instantanées, leur permettant de corriger les problèmes de performance avant même qu’ils n’impactent les utilisateurs. Les équipes sont ainsi mieux outillées pour faire face à la complexité logicielle et bénéficier ainsi d’une meilleure visibilité sur leurs environnements cloud.
Allons un peu plus loin… A terme, l’AI pourra freiner les dégradations de performance et éviter qu’elles ne se transforment en véritables problèmes. Pour en arriver là, les solutions de monitoring pilotées par l’intelligence artificielle devront être complètement intégrées aux écosystèmes cloud des entreprises, avec un accès aux indicateurs et aux évènements issus des autres outils présents dans le pipeline CI/CD, tels que ServiceNow et Jenkins. Les capacités de l’AI permettront alors d’extraire toutes les données de monitoring dans une seule et même plateforme, de les analyser en temps réel et de fournir des réponses immédiates et précises qui déclencheront une résolution autonome du problème, sans qu’une intervention humaine ne soit nécessaire – ce qu’on appelle souvent le « self-healing » applicatif.
Naviguer en douceur vers le futur
Ce n’est un secret pour personne : l’expérience utilisateur est aujourd’hui cruciale pour les entreprises. Aussi utopique que cela puisse paraître, l’AI est en train de devenir la clé pour permettre aux entreprises de délivrer une expérience optimale, reléguant les problèmes de performance à de l’histoire ancienne.
Que l’on raisonne sur le court ou le long terme, les capacités de l’AI permettront à terme aux entreprises de s’assurer que les problèmes de performance seront gérés rapidement et efficacement. Et ce, tout en minimisant leur impact sur l’expérience utilisateur, ainsi que sur les résultats et la réputation des organisations.
A propos de l’auteur
Antoine Ferté, Directeur Technique Europe du Sud – Dynatrace
Antoine Ferté se consacre depuis plus de 15 ans à la performance des SIs.
Il met aujourd’hui son expérience au service de Dynatrace en tant que Directeur Technique Europe du Sud et a trouvé chez cet éditeur une approche innovante de Monitoring Global permettant de combler le manque existant jusqu’à lors entre le monitoring des infrastructures et des applications.