Inscrivez-vous gratuitement à la Newsletter BFM Business
Les outils de cartographie décrivent les relations entre les applications et l'infrastructure. Ils sont complémentaires d'une multitude d'outils d'administration.
Il semblerait que les grands éditeurs n'aient entrevu que tout récemment l'étendue du champ d'application des outils de découverte topologique du système d'information (ou mapping). Les progrès réalisés ces dernières années par les
produits d'inventaire automatique ont en effet atteint un degré de sophistication poussé en termes de recensement des matériels et logiciels. Mais il leur manquait une fonction essentielle : la capacité à déterminer les relations entre les
composants découverts. Notamment entre les applications et l'infrastructure.L'arrivée, courant 2002, de start up spécialisées dans les solutions de mapping a comblé cette lacune. Celles-ci décrivent la façon dont les ressources informatiques (serveurs, applications, bases de données, etc. ) sont configurées
et modélisent les relations entre elles. Cela a attiré les grands éditeurs, comme en témoignent les récents rachats de Relicore par Symantec, de Cendura par CA, et de nLayers par EMC.Ce dernier utilise nLayers Insight comme moteur de découverte de l'infrastructure de sa console d'administration de réseaux, Smarts (pour System Management Arts). ' A plus long terme, on peut imaginer des
intégrations entre la technologie nLayers et certains logiciels des gammes VMware (virtualisation de serveur ?" NDLR) ou Control Center (logiciel d'administration du stockage ?" NDLR). Et cela,
afin d'aider les opérationnels à mieux comprendre les implications de leurs décisions et, ainsi, à effectuer de l'analyse d'impact ', estime, pour sa part, Roni Colville, analyste chez Gartner, dans une étude récente.A l'origine, les technologies de mapping conservent les configurations des différents composants logiciels et matériels dans un référentiel. Elles sont principalement destinées au peuplement des référentiels centraux de gestion des
configurations, les fameuses CMDB (Configuration Management Data Base). Ces dernières servent désormais de socle aux outils de gestion des processus informatiques, qu'il s'agisse de help desk ou de gestion des changements, des niveaux de qualité de
service (SLA), ou des incidents.
Un allié précieux pour les outils de supervision
L'automatisation de cette collecte évite les tâches manuelles fastidieuses de documentation et de recensement des configurations matérielles et logicielles. C'est pourquoi IBM a acquis en novembre dernier la technologie de Collation.
Mieux : le constructeur américain en a quasiment fait un prérequis à la construction d'une solution de CMDB digne de ce nom.Mais le référentiel inhérent à ces solutions suscite des utilisations beaucoup plus diverses. Il peut, par le biais d'interfaces, se marier à une application tierce, telle une console de supervision. Un outil de topologie sert, par
exemple, à établir avec certitude qu'un problème imprévu n'a pas été causé par un changement non désiré d'une configuration. Ou encore à localiser plus rapidement le problème remonté par la console de supervision. Pour EMC, le rachat de la
technologie de nLayers s'inscrit dans ce champ d'application. Il avait déjà entamé une incursion dans le monde de l'administration des infrastructures réseau en acquérant en 2005 la console de supervision réseau Smarts. Grâce à ses possibilités
cartographiques, nLayers élargit le potentiel de Smarts en corrélant la remontée d'un événement et sa localisation sur l'infrastructure. ' On évalue ainsi l'impact d'un événement sur la qualité de service associée. Une
opération impossible auparavant ', précise Xavier Fessart, responsable solutions d'EMC France. Smarts possédait déjà des capacités de découverte via l'analyse des ports TCP, mais elles restaient élémentaires. Grâce à une
meilleure compréhension de l'agencement des éléments de stockage, nLayers permettra, entre autres, de diagnostiquer plus rapidement un problème au niveau d'un réseau de stockage. ' Mais aussi au niveau des applications par le
biais du module de monitorat J2EE de Smarts ', complète Jean-Pierre Garbani, vice-président de Forrester Research.
Améliorer le diagnostic en cas de problème
Cette complémentarité avec le domaine de la supervision explique aussi le rachat de Relicore par Symantec. La solution de la start up s'avère un atout précieux pour i3, la solution de surveillance des applications de Symantec. En cas
de panne d'un serveur, i3 saura déterminer quelles applications sont touchées. Surtout, une corrélation entre les changements effectués et la baisse de performances des applications est envisageable. Pour IDC, 78 % des arrêts d'applications
sont causés par des changements opérés au sein de l'infrastructure. De fait, ce genre de corrélation améliore considérablement le diagnostic d'un problème. Mais le champ d'application de Relicore ne s'arrête pas là. Une autre complémentarité se
dessine entre Clarity (produit de Relicore rebaptisé Configuration Manager) et Provisioning Manager (ex-Oppforce), outil de gestion automatique des configurations et de déploiement à distance de Symantec. Les logiciels de provisioning ambitionnent
d'automatiser l'installation d'un parc de serveurs et de reconfigurer totalement des machines en cas de pic de charge ou de défaillance matérielle ou logicielle. Pour être efficaces, ils doivent s'adosser à une solution leur proposant une
photographie de l'infrastructure. Jusqu'ici, ces solutions peinaient à trouver leur place, faute, justement, de possibilités réelles de simulation de l'impact d'un changement. ' Mettre un patch sur une application peut
impacter une dizaine de serveurs différents. Une vision globale des dépendances entre applications et un suivi des évolutions s'imposent donc ', lance Paul Dominjon, responsable marketing pour Symantec Europe du Sud. Deux
autres spécialistes du provisioning, Bladelogic et Opsware, avaient d'ailleurs noué un partenariat similaire avec la start up nLayers avant son rachat par EMC. Dans le même ordre d'idées, l'outil de Collation pourra, à l'avenir, se révéler un
compagnon précieux d'IBM Provisioning Manager. Et, à terme, devenir ' la pierre angulaire de la stratégie d'automatisation de centres de données d'IBM ', estime le cabinet Forrester Research. Même si, à
ce jour, Big Blue n'a pas dévoilé de stratégie en ce sens.Au regard de cette multitude d'applications, on comprend mieux pourquoi la quasi-totalité des start up de mapping arrivées sur le marché depuis 2002 ?" Relicore, Collation, nLayers, Cendura, etc. ?" ont été reprises ces
deux dernières années. Leurs produits offrent des fonctions similaires : découverte et représentation des dépendances entre les applications et l'infrastructure sous-jacente, relevé des configurations des applications et des serveurs, et
mémorisation de ces informations dans un référentiel doté d'un modèle de données. Leur fondement technologique, lui, diffère sensiblement d'une solution à l'autre.
Des approches avec ou sans agents déployés
Confignia, de Collation, rebaptisé Tivoli Application Dependency Discovery Manager, s'appuie sur 250 capteurs qui collectent les configurations et dépendances des principaux logiciels du marché. ' Il dispose
d'un agent maître, situé sur un serveur qui se connecte sur les racines des systèmes d'exploitation et interroge les tables de configuration ', note Jean-Pierre Garbani. Après cette collecte, Confignia recrée l'architecture
de l'application à partir d'une base de connaissances des architectures des logiciels propriétaires. Cette base peut être enrichie des documentations propres aux applications spécifiques. Son utilisation ne nécessite pas l'installation d'agents.
Mais, la découverte des configurations ne s'exécute pas en temps réel, mais selon un mode programmé.Clarity, de Relicore, première solution de mapping commercialisée sur le marché, est munie d'agents légers à installer sur les serveurs. Ces agents surveillent sans cesse les tables de configuration, collectent ces informations, et
les dirigent vers un serveur central. Sa grande force est donc la détection des changements de configuration en temps réel. Cette solution recrée ces interdépendances en surveillant le comportement réel des applications et leurs
interactions.nLayers fournit un boîtier sans agent, qui, au sein des centres de données, découvre et surveille en continu le réseau par l'écoute passive des flux de données transitant dans les routeurs. ' nLayers Insight
écoute toutes les conversations à travers la trame TCP-IP, et en déduit les relations entre les composants ', précise Jean-Pierre Garbani. Il modélise automatiquement ces relations grâce à une technologie nommée Application
Behavior Modeling (ABM). L'avantage de nLayers Insight est de disposer de deux modes de découverte : l'un basé sur une analyse du trafic réseau en temps réel, et l'autre en mode programmé.Bien sûr, ces solutions ont chacune leurs forces et leurs faiblesses, inhérentes aux technologies utilisées. Mais leur capacité commune à réunir la vision orientée infrastructure, propre aux administrateurs du système d'information,
et celle orientée applications, point de vue des responsables métier, en a fait une brique fondamentale dans la stratégie des spécialistes de l'administration. Avec ces produits, le discours sur l'informatique orientée métier prend un peu plus
corps.o.discazeaux@01informatique.presse.fr www.01blog.fr/1876