Les leçons du passé
Vincent Berdot, grand reporterEn quelques années, les données l'ont emporté sur les processus. L'orchestration de services métier réutilisables a perdu de sa superbe au profit de la gestion de l'information. Priorité, désormais, à la qualité de la donnée, au partage d'informations de références et, de plus en plus, au big data. Ce récent concept promet d'explorer et de forer les énormes quantités dormantes de contenus non structurés sur lesquelles sont assises les entreprises. Revenons à la situation, en 2005, de la gestion des processus. Tous les ingrédients techniques sont alors au rendez-vous pour aligner les technologies de l'information sur les processus métier. En particulier la normalisation des interfaces et la maturité des moteurs d'orchestration. Mais les difficultés de dialogue entre l'informatique et les directions métier ont rendu ces projets bien trop complexes. Comme hier avec le processus, la fièvre du big data résulte d'abord d'une avancée technologique. En l'occurrence, le système de fichiers distribué Hadoop, utilisé par les grands noms de l'internet (Yahoo, Amazon, Google…) et taillé pour les gros volumes de fichiers. Dès lors, la question de l'appropriation de ces innovations par les utilisateurs se pose à l'identique. De quelle autonomie disposeront les métiers pour lancer des requêtes, opérer des segmentations ou bâtir des modèles prédictifs avec Hadoop ? Nul doute qu'ils resteront tributaires de spécialistes, comme ils le sont aujourd'hui des statisticiens pour le datamining ou d'informaticiens pour le paramétrage de requêtes décisionnelles. Ne surestimons pas la portée du big data dont l'adoption ne saurait se mesurer à l'aune de sa puissance de calcul, mais à la collaboration resserrée entre métiers et techniciens autour de l'investigation des données. Loin du raz de marée prédit par certains, le big data devrait se confiner à des besoins précis. Comme l'est aujourd'hui la gestion de processus.
Votre opinion