Inscrivez-vous gratuitement à la Newsletter BFM Business
La plupart des MDM exposent désormais leurs fonctions sous forme de services web pour faciliter les échanges au fil de l'eau avec les applications. La priorité : adjoindre aux moteurs de transformation des services de qualité
de données.
S'il y a un terrain sur lequel le Master Data Management a évolué, c'est bien celui de l'intégration. Ce qui a changé ? Le mode d'interaction de ces référentiels avec le système d'information de l'entreprise. Initialement,
les offres disposaient uniquement de leur propre système d'alimentation de données, axé sur des dialogues en mode asynchrone. Des mécanismes qui existent encore. Mais les éditeurs de MDM cherchent désormais à enrichir leur mode d'intégration au
système d'information. Non seulement en les couplant à des moteurs d'ETL et des outils de qualité de données. Mais également en rendant les fonctions du MDM exposées sous forme de services web.Websphere MDM Server, d'IBM, en compterait ainsi près de 700, tous accessibles en Soap. Depuis son acquisition de DWL, BigBlue n'a cessé d'augmenter leur nombre. Cette exposition ouvre la porte aux dialogues synchrones entre le
MDM et le reste du système d'information. ' Une application à partir de laquelle un nouveau client doit être créé peut ainsi solliciter un service du MDM qui ira vérifier que ce client n'existe pas déjà sous une forme ou une
autre ', rapporte Jean Mina, architecte avant-vente MDM chez IBM.Tous les autres éditeurs suivent cette voie. Dernier en date : Dataflux, dont la version 8 de son MDM (fin 2007) expose désormais des services web. Seulement cette version SOA a ses limites : toutes les applications
clientes du référentiel ne sont pas nécessairement en mesure d'exposer, d'appeler ou de consommer des services web. ' Une vieille application de facturation développée en interne réalise ses mises à jour à l'aide de jointures
entre ses tables clients et produits. Remplacer ce système par des appels de services web exige dans bien des cas de modifier radicalement les processus de l'application ', tempère Bruno Labidoire, directeur technique
d'Informatica.
La traçabilité précieuse des flux de données
Autre limite à l'exploitation de ces services web : la performance. Lorsqu'ils servent à établir des dialogues synchrones avec les applications, certains réglages sont indispensables. ' Pour réduire
au maximum les temps de latence, les appels aux services gagnent à être regroupés par lots ', conseille Marc Daverat, directeur Europe de Dataflux. Malgré tout, la notion de service n'est pas compatible avec des échanges
volumineux en mode asynchrone. On privilégiera alors les outils d'extraction de données (ETL), dont l'intégration avec le MDM constitue l'autre axe de développement des éditeurs. A commencer par IBM, qui a récemment rapproché Websphere MDM Server de
Datastage. L'enjeu étant ici de prédéfinir des formats d'import et d'export de données, calés sur le modèle du référentiel. L'accord passé entre Informatica et Orchestra Networks a la même visée.Reste que les services d'alimentation internes aux MDM assurent les mêmes fonctions d'extraction et de transformation que les outils d'ETL. Qu'apportent-ils en plus ? ' Ils savent tracer toutes les
transformations de données au cours de leur circulation. Depuis les sources vers les cibles. ' Une traçabilité des flux qui s'avère précieuse, dans des architectures où le MDM devient l'une des principales sources
d'alimentation des systèmes transactionnels. C'est d'ailleurs pour la même raison que les éditeurs tentent d'adjoindre à ces ETL des outils de qualité de données ; sur le même modèle que les entrepôts de données exploités pour les outils de
décisionnels. L'idée ? Etablir des référentiels les plus propres possible en corrigeant des erreurs de saisie (chiffres à la place de lettres, par exemple) ou en remplaçant des adresses erronées (en les confrontant à des référentiels
externes).Cette qualité de donnée implique également de rapprocher des clients potentiellement représentés sous différentes formes. Autrement dit d'être capable d'ôter les doublons. Ces étapes de qualité de données sont en théorie
appelées depuis le worflow du MDM. Elles doivent surtout être associées à des étapes de validation humaine. Cette association entre MDM et qualité de données forme le dernier grand chantier que mènent actuellement les éditeurs.
Votre opinion