' Tous les DSI recherchent quels sont les indicateurs, notamment métier, à mettre en ?"uvre afin de vérifier la bonne marche de leur système d'information. Ils recherchent également des modèles de
tableaux de bord et se demandent quels processus Itil (Information Technology Infrastructure Library ?" NDLR) déployer ', résume Carlos Mateus, consultant chez Devoteam. Objectif des DSI : disposer d'un
reporting apportant des gains quantifiables, en passant d'un mode réactif à un mode proactif.On évitera ainsi que les performances des serveurs ne s'effondrent en anticipant l'ajout de disques durs ou de cartes mémoire. De même, on tâchera d'empêcher l'engorgement des liens télécoms en
accroissant leur débit avant que la situation ne devienne critique. Pour cela, il faut des indicateurs pertinents, aptes à détecter les anomalies. De manière générale, la mesure porte sur les temps de réponse applicatifs, le trafic sur les liens
d'accès, la disponibilité, et le taux de charge des équipements. On essaye aussi d'appréhender la perception de l'utilisateur final.L'outillage ad hoc a déjà souvent été installé, en quantité, par les DSI. En la matière, les quatre géants de l'administration, IBM Tivoli, HP, CA, et BMC Software possèdent une offre étoffée, où coexistent deux
technologies : la simulation de transactions et la mesure de transactions réelles. Ils sont concurrencés par des spécialistes de la QoS : Symantec (avec i3 venu de Veritas), Quest Software, Compuware, Auditec (avec Newtest), ou NetQoS.
Même les spécialistes du réseau s'y mettent : Opnet, Network General, ou Netscout. Et une nouvelle génération arrive : Coradiant, Moniforce, Tealeaf, Knoa Software, Premitech, ou Serden, souvent centrés sur les applications web. Une
fois la production d'indicateurs industrialisée, rationalisée et consolidée, on établit des historiques qui aideront au diagnostic en cas de dégradation du fonctionnement. En revanche, la prédiction de l'évolution des performances
reste peu automatisée :
' Infovista, ServicePilot Technologies ou Mercury Interactive (HP) travaillent à des modèles prédictifs ', relève Carlos Mateus. Le cabinet d'études Gartner identifie
Netuitive et Integrien, comme proposant des solutions de ce type. On peut y rattacher Indicative Software, ou ProactiveNet (BMC Software).
Adopter une vue métier des services
Au quotidien, outre la surveillance des applications de bout en bout, on contrôle les paramètres vitaux des serveurs, routeurs, ou des hyperviseurs de virtualisation via des outils complémentaires : taux d'occupation des
disques, pourcentage d'utilisation des processeurs ou de la mémoire, disponibilité, etc. Il en résulte un déluge de mesures, souvent par silo (réseau, stockage, bases de données, grands systèmes, Unix, Windows, applications...). Une vue
d'ensemble et une hiérarchisation des composants selon leur criticité pour l'activité de l'entreprise s'imposent. Par exemple, pour une chaîne de supermarchés, mieux vaudra résoudre la panne d'une passerelle EDI
qui remonte les tickets de caisse de ses magasins plutôt que celle d'un serveur de documentation. Cette démarche, intitulée BSM (Business Service Management), consiste à découper l'informatique en services ayant un sens métier, et en
assurant les bons niveaux de service (SLM pour Service Level Management) selon la criticité relative de chaque élément. Dans ce cadre, un progrès majeur aura été la possibilité de découvrir automatiquement les liens entre les applications et les
composants de l'infrastructure qui les portent. Ces relations sont enregistrées au sein d'une base de données décrivant le système d'information, la CMDB (Configuration Management Database). Selon Forrester Research, sur le
marché du SLM/BSM pour les grandes entreprises, cinq fournisseurs mènent le pack : IBM, HP, CA, BMC Software, et Managed Objects. Sur le marché des PME, on retrouve les cinq mêmes acteurs, et pas moins d'une quarantaine d'autres
éditeurs parmi lesquels Compuware, Digital Fuel Technologies, Oblicore, ou Newscale.
L'irruption du phénomène Itil
Dans le même temps, un phénomène aux conséquences encore bien supérieures émerge : l'adoption du guide des meilleures pratiques Itil. Ce dernier entend faire en sorte que les incidents soient résolus de façon proactive,
ce qui s'avère généralement moins coûteux que les interventions dans l'urgence. Itil empêche également les changements et les mises en production sauvages, facteurs de perturbations. Il diminue le nombre d'erreurs et rend
l'informatique plus réactive, les mises en service prenant moins de temps.Désormais, tout outil doit s'annoncer conforme à Itil. Cela a d'abord été le cas des solutions aidant à l'enregistrement des incidents, au help desk et à la gestion des problèmes : Symantec (via Altiris),
Axios systems, ainsi que le quatuor HP, IBM, BMC Software et CA. Puis sont venues la gestion des niveaux de service et celle des changements et des configurations, suivies par la gestion des capacités et des mises en production. La gestion des
changements réclame alors la mise en ?"uvre d'une CMDB qui devient le pivot des échanges entre les outils d'administration et les multiples équipes intervenant sur le système d'information. Au final, une nouvelle manière
d'administrer l'informatique émerge. Résultat, les investissements en la matière devraient augmenter de 12 % cette année, pour atteindre 15,7 milliards d'euros dans le monde, selon Forrester Research. Quatre domaines
vivront une croissance bien supérieure, 20 % et au-delà, il s'agit de la gestion des configurations et des changements, la gestion des actifs, la gestion de l'expérience utilisateur, et le SLM/BSM.
Votre opinion