Pourquoi la qualité des données reste négligée par les entreprises

Les projets de maîtrise des données butent souvent sur le volet qualité. Tour d'horizon des différents points d'achoppement.
Les données représentent le patrimoine informationnel des entreprises. Pourtant, leur qualité fait rarement l’objet d’un processus industrialisé. Selon un sondage de PricewaterhouseCoopers (PwC), 90 % des entreprises jugent indispensable d’avoir une stratégie de qualité de données, mais seules 15 % s'y sont véritablement attelées. Comment expliquer ce décalage ? Le récent guide édité par l’Electronic Business Group (EBG), qui recense plus d’une vingtaine de cas d’entreprises, répond en partie à cette contradiction. Passage en revue des principales difficultés.
Pas de définition unanime de la qualité des données

La notion de qualité de la donnée n’existe pas dans l’absolu. « Sa définition diffère d'un métier à l'autre, au sein d’un même métier, et d’un niveau hiérarchique à l’autre » explique Zouheir Guedri, directeur chez PwC. Ainsi pour certains services, qualité des données rime avec exactitude des chiffres. Pour d’autres, elle est synonyme de célérité dans la mise à disposition de l’information.
Le champs de la qualité varie également selon l’organisation. « On tolèrera davantage d’erreurs sur un processus de rapprochement de factures fournisseurs s’il est effectué ponctuellement à l’échelle d’un département que s’il est exécuté dans un centre de services mutualisés à l’échelle du groupe », indique Joël Aznar, responsable processus chez Schneider Electric.
Un périmètre trop étendu

Quelles sont les données concernées par la qualité ? En théorie, seules celles participant au processus. Quitte à exclure les informations qui ne sont pas indispensables. C’est souvent à ce stade que le bât blesse. « Pour passer une commande, par exemple, seules 20 % des données sont utiles. Or si, sur les 80 % restantes, viennent se glisser des erreurs, celles-ci peuvent avoir de graves conséquences sur la suite du processus », détaille Jacques-Benoit le Bris, responsable business intelligence chez Rhodia. Dans ce contexte de gestion des risques, les projets de qualité de données se traduisent donc également par une épuration de celles-ci. Le parfumeur Firmenich va dans le même sens : « Nous avons besoin d’une qualité adéquate au moment où s’exécute le processus. Avant c’est inutile, après, c’est trop tard », résume Thierry Délez, directeur Master Data Management.
Difficile de trouver un consensus pour déployer les règles

Les instructions sur le format et la syntaxe des données, les champs et les métadonnées attendus, les processus concernés, le niveau de tolérance acceptable (c’est-à-dire le nombre de d’erreurs acceptables sans courir à la catastrophe), bref tous les éléments participant à la contextualisation de la qualité de la donnée sont stockés dans un ou plusieurs référentiels partagés (certains provenant d’organismes de normalisation comme GS1).
Il n’en demeure pas moins que ces règles, référentiels et autres conventions sont complexes à bâtir. Car ils exigent de mettre autour d’une table les différents services. C’est là un éternel problème que même la mise en place d'ERP et de leurs référentiels associés ne résout que partiellement. Dans l’idéal, pour parvenir à un consensus, les directions générales gagneraient à s’impliquer directement dans les chantiers de qualité de données. Ce qui est très rarement le cas.
Des rivalités sur la prise en charge des référentiels

Informatique ou métier, à qui revient la gestion des règles ? Il y a débat. Chez Rhodia, cette administration reste l’apanage de l’informatique : « La gestion de référentiel est un vrai métier et non un tremplin provisoire vers d’autres fonctions. Lorsque cette mission est confiée aux métiers, ces derniers la détruisent en deux ans : quand le projet fonctionne, on ne voit plus le besoin d’une personne dédiée, et quand il s’enlise, on fait appel à des consultants externes », lâche Jacques-Benoit le Bris. Position radicalement opposée chez Firmenich pour qui la « destruction de la valeur » est imputable à l’informatique. Celle-ci « s’imagine qu’elle a plus de connaissances sur la gestion des données que les opérationnels eux-mêmes. Chez nous, cette fonction a été rattachée à la finance », lui répond Thierry Délez. Pour autant ces deux positions ne sont pas totalement irréconciliables, comme l’explique Rudy Buchser, responsable pôle décisionnel de HSBC : « La gestion de référentiel reste un métier bien spécifique, qui doit être exercé par une maîtrise d’ouvrage, peu importe qu’elle émane des métiers ou de l’informatique. On lui demande seulement de faire le lien entre les deux mondes. »
Mesurer la qualité, une tâche ingrate

Pour déterminer où placer les indicateurs, l’une des démarches les plus courues consiste à procéder « de bas en haut ». Autrement dit, considérer l’ensemble des données et chercher les plus critiques. La tâche est particulièrement ingrate et, surtout, sans fin.
Dans ces conditions, une approche originale consiste à mesurer l’impact de la mauvaise qualité des données. Précisément celles, incomplètes ou inexactes, susceptibles d’altérer ou de mettre en péril une transaction, qu’elle touche le processus de commandes, d’ordres de ventes, de livraisons ou de recouvrement. « Nous ne recherchons pas une vision complète. Pas question de passer en revue toutes les données pour déterminer lesquelles sont critiques. En nous concentrant sur la transaction, nous focalisons nos efforts sur la qualité dans une temporalité qui nous permet d’exclure les données obsolètes », détaille Thierry Délez.
Votre opinion