Inscrivez-vous gratuitement à la Newsletter BFM Business
Ces plates-formes de nouvelle génération rendent plus réactives les analyses et plus autonomes les utilisateurs. Mais elles ne sauraient remplacer les offres traditionnelles, garantes de la cohérence des données dans l'entreprise.
Business intelligence tactique, de nouvelle génération, de visualisation, in-memory (ou en mémoire)… Quelle que soit son appellation, ce décisionnel popularisé par des sociétés telles que Qliktech ou Spotfire a fait des émules. Tous les éditeurs historiques s'y sont ralliés (SAP-Business-objects, Oracle, Microsoft…), car il offre une souplesse et une facilité d'analyse imbattables.Grâce à son système de stockage en mémoire (reposant sur des bases vectorielles), les utilisateurs peuvent naviguer selon des axes qu'ils n'avaient pas imaginé explorer (la dimension géographique, par exemple). Ils réalisent ainsi des analyses ponctuelles que le système décisionnel déjà en place dans l'entreprise ne saurait fournir. Du moins pas dans les temps attendus, et pas sans l'intervention d'un profil technique, spécialisé dans les requêtes de données ou les architectures multidimensionnelles. “ Ces analyses tactiques conduites avec l'in-memory sont de plus en plus réclamées par les comités exécutifs, qui souhaitent connaître la performance d'un produit ou une prévision spécifique sur les marges. Toutefois, elles restent ponctuelles ”, précise Reda Gomery, directeur du conseil en business intelligence (BI) au sein du cabinet de conseil Keyrus.Au-delà de sa capacité à calculer des dimensions à la volée (à partir de données de détail), ce décisionnel en mémoire offre l'avantage d'associer des sources de divers horizons. Ces informations, issues de tableurs, d'applications de comptabilité, de datawarehouse voire de sources extérieures à l'entreprise, sont réunies et réconciliées par la base in-memory. Et l'organisation à déployer pour cette BI tactique s'en retrouve largement simplifiée.
La liberté d'action pour les utilisateurs
Dans les projets décisionnels historiques, la modification ou la mise à jour des couches sémantiques relèvent d'un processus parfois long et tortueux. Pour rappel, ces couches introduisent une médiation entre les bases de données techniques et des objets métier directement manipulables par les non-techniciens pour constituer leurs rapports. “ En théorie, un chargé d'études peut se fabriquer lui-même ses objets métier. Mais les opérationnels souhaitent souvent conserver et centraliser ces fonctions de développement, qui s'effectuent alors selon des cycles en V, rapporte Jean-Marc Bonnet, consultant architecte chez Teradata, pionnier du datawarehouse. Résultat : des mois peuvent s'écouler avant que l'utilisateur soit servi. Ce n'est là qu'un problème d'organisation. ” Avec la nouvelle BI, cette couche de médiation n'a plus vraiment lieu d'être. Elle requiert un technicien pour se câbler sur les sources de données (notamment les ERP), mais l'analyste métier a ensuite les mains libres pour bâtir ses indicateurs, définir ses dimensions et les faire évoluer.Bref, ces analyses effectuées par les métiers tranchent avec “ la frustration accumulée vis-à-vis des systèmes décisionnels historiques, souvent incapables de s'aligner sur les cadences de l'information imposées par les directions, pour le pilotage de la performance ”, résume Reda Gomery. Reste à voir si ces analyses “ jetables ” remplaceront le décisionnel d'entreprise. S'il est certain que les premières continueront encore à empiéter sur le second, le périmètre des deux familles devrait finir par s'équilibrer. Surtout qu'elles gagnent à interagir. Ainsi, des analyses testées et validées ponctuellement peuvent être industrialisées et diffusées par la BI centrale.
Une business intelligence centralisée
Le couple datawarehouse-business intelligence traditionnelle garantit une certaine cohérence de l'entreprise. Il apporte à l'ensemble de l'organisation un vocabulaire, des définitions d'objets métier et un périmètre communs. C'est même sa vocation première. Autrement dit, la généralisation tous azimuts d'applications BI in-memory dans chacun des services serait, à terme, source de confusion. “ Chacun réinventerait sa vérité, avec ses propres chiffres. La gouvernance des données volerait en éclat. L'informatique ne contrôlerait plus rien ”, avertit Jean-Marc Bonnet, qui défend une business intelligence centralisée. Enfin, les solutions en mémoire ont beau séduire les utilisateurs, elles peinent parfois à monter en charge. “ Notamment lors de nombreux accès concurrents aux données, précise Renaud Finaz, directeur du marketing de Micropole. Elles exigent alors l'ajout de mémoire RAM supplémentaire. Du coup, même si les prix de celle-ci ont baissé, l'équation économique n'est plus au rendez-vous. ” D'ailleurs, signe des temps, Qliktech vient d'annoncer qu'il était désormais capable de mixer, dans ses analyses, des données en mémoire et des informations stockées sur disques dans l'entrepôt de données de Teradata. Une première.
Votre opinion