Inscrivez-vous gratuitement à la Newsletter BFM Business
Les récentes directives européennes accentuent la nécessité, pour les établissements bancaires, d'interconnecter leurs référentiels métier. Objectif : assurer la cohérence de données issues de traitements divers.
Le monde bancaire et financier est confronté à des problématiques d'échange entre référentiels. Ces bases qui centralisent les données de référence (produits, clients, valeurs, etc.) se comptent par dizaines dans les entreprises. Aujourd'hui, leur consolidation ?" ou fédération ?" tient pour beaucoup aux récentes directives, telle la Mifid (Markets in Financial Instruments Directive), à laquelle seront soumis tous les acteurs des marchés financiers européens d'ici à la fin de 2007. Principal enjeu : instaurer une concurrence entre les places de marché et harmoniser les conditions des offres de services d'investissement (Bourse, gestion des actifs, investissements sur des produits dérivés, etc.). Mais, au-delà de la simple conformité avec la réglementation, un enjeu majeur est de créer une valeur ajoutée différenciatrice. Ces régulations ont aussi plusieurs répercussions techniques : elles imposent de collecter, corréler, et concilier des informations appartenant à des chaînes de traitements différentes (prestations, tarifs, risques, reporting, conventions de services, etc.). Des données traitées au fil de l'eau, qui émanent autant des référentiels que des applications ou des flux financiers externes.
Un workflow pour orchestrer les transformations
Mais si le contexte impose de décloisonner les données de référence, les débats d'architecture autour des référentiels, eux, ne changent pas. Certaines entreprises jugent utopique de centraliser ces données. Les autres affirment que la cohérence des informations passe par leur fédération globale dans un réceptacle unique. En fait, la véritable question ne se situe pas là, mais bien dans la couche d'intelligence par laquelle transiteront les données des référentiels. Cette couche a vocation à assurer le contrôle de la qualité de ces données et leur cohérence. Elle doit aussi générer des indicateurs complexes à des fins de reporting (pour, par exemple, assurer le suivi des dossiers des clients).Cette couche peut prendre la forme d'un workflow (moteur d'exécution, outil de modélisation, bibliothèques de métadonnées et de fonctions financières, etc.), Trois cas de figure se présentent alors. Dans le premier, les informations ainsi transformées sont injectées dans un référentiel central, qui les stocke dans un format pivot. Certaines applications y puisent leurs ressources. Dans la deuxième configuration, plus distribuée, les données modifiées sont réintroduites dans les référentiels et applications sources. Des données liées aux produits peuvent ainsi être dirigées, par le biais du workflow, vers une application de gestion. Troisième cas, à la croisée des deux autres, le référentiel virtuel : les données de référence sont traitées à la volée, et présentées à une application qui en fait la demande.Ces projets d'interconnexion s'étalent sur un à trois ans. Ils mobilisent toute l'entreprise : de l'informatique aux ventes, en passant par le marketing et le service juridique. Doù leur complexité.
Votre opinion