Open data : la France rivalise avec les Etats-Unis et dépasse l'Angleterre

Open data : la France rivalise avec les Etats-Unis et dépasse l'Angleterre
 

Après dix mois de chantier, la mission Etalab ouvre son site data.gouv.fr. Avec 350 000 jeux de données référencés, le portail fait aussi bien que son homologue américain, data.gov.

Votre opinion

Postez un commentaire

2 opinions
  • Pierre Col
    Pierre Col     

    Désormais, les données commencent à être publiées, et les standards, technologies et outils sont disponibles : et du coup, tout le monde va comprendre que l'Open Data n'est plus un problème de "comment faire", mais bien de "que faire" et surtout "pourquoi le faire".

    Or le "que faire" et le "pourquoi le faire" peuvent justifier d'interconnecter des jeux de données issus de producteurs très différents, et de mailler des informations de nature très diverses pour les réutiliser d'une façon qui n'avait pas encore été imaginée. Et du coup, on en vient à considérer qu'il faut partager des données les plus brutes possibles, sans le filtre d'APIs qui présupposent des usages et en limitent d'autres. Espérer que des APIs propriétaires associées à chaque jeu de données vont être vraiment utiles est illusoire, pour une raison très simple : si, pour bâtir une application exploitant 13 jeux de données différents, il faut intégrer 13 APIs de fournisseurs différents, alors le résultat du développement sera un monstre totalement impossible à maintenir et à faire évoluer dans le temps, et donc au final inutile.

    Il faut donc que les organisations qui se lancent dans l'Open Data publient des données non seulement ouvertes mais pleinement réutilisables : à cet égard, on ne saurait se contenter de proposer de sous forme d'une collection, aussi riche soit-elle, de fichiers XLS, PDF ou même CSV qui vont nécessiter beaucoup de travail pour que les données qu'ils renferment soient vraiment exploitées. Comme l'a dit fort justement Tim Berners-Lee à TED 2009 : "Raw data now!"

    Le W3C a défini des standards pour l'accès aux données brutes, via l'approche du "web sémantique" ou "web des données" qui seul permet une réutilisation généralisée des données, par la mise en réseau massive des silos de données ouvertes où qu'ils se trouvent sur le web. 
Ces standards publiés par le W3C s'appellent RDF, OWL et SPARQL. ils sont désormais matures et de nombreux outils existent pour les mettre en oeuvre.

    La donnée brute en RDF, publiée dans le "nuage du Linked Open Data" ou "LOD cloud" est la seule vraie façon pérenne de permettre une réexploitation massive des données. Et c'est une tendance lourde, si l'on en juge par la croissance formidable du LOD en l'espace de 4 ans.

    Pour mieux appréhender les standards du W3C pour l'Open Data, voir http://blog.antidot.net/2011/12/08/grande-semaine-pour-lopen-data-francais/ qui donne des points d'entrée "pédagogique"

  • datafree
    datafree     

    Effectivement je suis pour la libération des données, mais ce concours avec les USA et l'Angleterre sur le nombre de données est un peu enfantin ! Par exemple, il y a énormément de données qui sont livrées au niveau des départements, par exemple, la consommation électrique de l'Ain, de l'Allier... et qui comptent pour autant de jeux de données différents. Ou encore la production de viande pour la semaine 01, 02, 03... découpée en autant de semaines qu'il y a dans l'année !!! On aurait pu regrouper des dizaines de jeu de données dans un seul, mais là, on aurait peut-être été derrière les américains et les anglais, alors...

Votre réponse
Postez un commentaire