Au cœur du big data, décryptage du phénomène Hadoop

La boîte à outils taillée pour l'analyse d'énormes volumes de données non structurées incarne à elle seule le concept de big data. Tour d'horizon d'une technologie qui rebat les cartes de l'analytique.
- Au cœur du big data, décryptage du phénomène Hadoop
- Hadoop : une histoire vieille de dix ans
- Hadoop, une boîte à outils qui requiert des compétences très différentes
- Hadoop, la technologie idéale pour analyser l'inconnu
- Pourquoi tous les spécialistes de la donnée convoitent Hadoop
Depuis un an, l’engouement du marché pour le big data se manifeste principalement sur une de ses composantes : l’analyse de données. Le phénomène résulte clairement de la montée en puissance d’Hadoop, un framework open source réputé pour sa puissance d’indexation, de transformation, de recherche ou d’élaboration de modèles sur de très gros volumes de données.
Pour autant, Hadoop soulève plusieurs questions. Celles, notamment, des compétences requises pour être apprivoisé. Ou encore celles de la nature des analyses fournies. Une chose est certaine en tout cas, au cours de ces dix dernières années, Hadoop aura fait ses preuves et contribué au succès de plusieurs géants du web. Et aujourd’hui, il aiguise l’appétit de tous les acteurs amenés à gérer de la donnée.
Votre opinion