Rapport Open Data des Collectivités, oui mais

Aujourd’hui, lundi 17 octobre, l’association OpendataFrance remettait à Axelle Lemaire, secrétaire d’État chargée du Numérique et de l’Innovation, son « Rapport sur les dispositifs d’accompagnement des collectivités locales à l’ouverture des données publiques ».

Ce rapport, réalisé sur lettre de mission, avait trois objectifs :

  1. fixer un état des lieux de l’open data des collectivités en France
  2. proposer un dispositif de soutien à la mise en œuvre des démarches des collectivités

  3. proposer des démarches d’animations et mutualisation au niveau national.

Nous vous proposons ici un résumé du rapport ainsi que nos premières réactions.

 

  1. Etat des lieux de l’open data des collectivités

La loi pour une République numérique représente une étape majeure pour le mouvement open data en France. Toute collectivité de plus de 3 500 habitants étant désormais tenue de publier des données ouvertes, comment organiser concrètement la mise en œuvre de cette obligation et accompagner ce changement d’échelle ?

L’association Opendata France, qui réunit (selon ses propos*) plus de 70 collectivités engagées dans l’ouverture de données, part du constat suivant : une poignée de collectivités pilotes se sont déjà lancées dans le mouvement. 45 % de leurs données sont des données géographiques et cette dynamique de publications est accompagnée d’une évolution dans la gouvernance interne des données, constatée notamment avec la création de postes d’administrateur général de données (AGD).

Les collectivités les plus grosses en termes de population sont celles qui ont le plus avancé sur le sujet des données ouvertes. Les collectivités de tailles moyennes et petites ne se sont pas réellement positionnées sur le sujet qui n’apparaît pas comme une priorité et qui leur est souvent mal connu et incompris. Elles sont également dépossédées de leurs propres données par les EPCI ou les délégataires et ont donc une faible culture du sujet. Un travail de communication s’impose pour expliquer la mise en œuvre, les bénéfices en terme d’accès aux informations de la commune, la réduction des charges et centralisation des informations, etc.

Les limites des démarches  :

  • peu de réutilisations des données
  • marché économique local et trop restreint
  • peu d’implication des réutilisateurs de données dans les démarches
  • manque de normalisation et de référentiels pour les données
  • animations trop territorialisées

odf-grossesse

2. Quel soutien pour la mise en œuvre des démarches open data des collectivités ?

Face à ce constat, des actions concrètes sont proposées dans le rapport. Il est rappelé en premier lieu que l’organisation du changement d’échelle (et donc le défi) consiste à multiplier les initiatives tout en assurant la qualité et conformité des données avec les lois en vigueurs, notamment en ce qui concerne le respect de la vie privée. L’enjeu est fort sur la normalisation, car si celle-ci s’est à peu près stabilisée autour de deux licences (nous verrons que non), les données elles-mêmes manquent cruellement de standards communs.

Voici quelques propositions du rapport :

  • Coproduction avec les collectivités d’un socle commun de données

Définir conjointement les données essentielles à publier et sur lesquelles bâtir une structuration commune. Une vingtaine de données sont proposées en annexe (page 49), parmi celles-ci : le budget, le PLU, les marchés publics, les délibérés, contours IRIS, résultats d’élection, agenda, etc.

  • Création d’un service public de la donnée locale

Proposition déjà mise en œuvre par Etalab qui propose sur www.data.gouv.fr/ et pour chaque commune de France, une page dédiée agrégeant automatiquement des données locales (INSEE, Finances, etc). L’idée est de centraliser les données existantes pour éviter aux communes de doublonner un travail de publication. Nous nous étions d’ailleurs appuyés sur ce service pour Montreuil-en-Touraine durant la dernière Opération Libre car il permet également de publier manuellement les données supplémentaires des communes.

A noter que l’étude ne conclue pas à la nécessité d’un service d’hébergement imposé par l’État, qui ne serait pas légitime aux yeux des collectivités.

  • Création de l’observatoire d’une évaluation des politiques open data des territoires

Le rôle de cet observatoire serait de suivre, évaluer et répondre au mieux au développement du mouvement open data en France. Mais ces critères d’évaluation restent à préciser.

  • Intégration de modules d’exports dans les progiciels métiers

A l’heure où les éditeurs persistent à emprisonner des données dans les logiciels métiers, un changement de paradigme s’impose. Des partenariats avec des éditeurs spécialisés seraient mis en œuvre pour inclure des modules d’export et portabilité des données des collectivités.

3. Les démarches d’animation et mutualisation

  • Création de référentiels pédagogiques mutualisés.

Documentation qui a déjà commencé à être constituée et http://www.opendatafrance.net/ressources/.

  • Formations théoriques et pratiques

La première formation au logiciel R à destination des collectivités commence justement aujourd’hui.

  • Sensibilisation des élus

(message d’intérêt local) Nous proposons une expérimentation de sensibilisation aux élus sur la personne de M. Bruno Retailleau afin de le motiver à reprendre la dynamique open data de la région Pays de la Loire qu’il préside.

  • Phase d’expérimentations

Afin d’organiser une première étape de prototypage de démarches d’ouverture selon différents échelons de territoires (communes, métropoles, départements, etc), l’association OpendataFrance propose une phase d’expérimentations avec des territoires pilotes. Celle-ci permettrait notamment d’identifier des modèles d’articulations d’ouverture sur les territoires et guides de bonnes pratiques.

Quelques organisations déjà postulantes pour l’expérimentation : La Région Provence-Alpes-Côtes d’Azur, un groupement de cinq acteurs en Bretagne, la préfecture de région Occitanie, le département de Loire-Atlantique, le Syndicat Mixte Informatique de Charente-Maritime (SOLURIS), liste non-exhaustive.

Deux initiatives de formations sont également proposées :

  • La création d’un certificat de formateur

Décerné par l’État, il s’agirait de quelques jours de formations pour les formateurs souhaitant obtenir ce certificat. Initiative d’intérêt pour ceux qui assurent déjà ou souhaitent assurer des formations Open Data auprès des collectivités, ce certificat assurerait la pertinence, qualité et conformité de leurs formations avec les référentiels nationaux. Libre aux collectivités de choisir ensuite des formateurs certifiés ou non.

  • Une formation d’animateur de la donnée territoriale (ADT)

Inspiré de la création et du rôle des Animateurs Numériques de Territoire dans le secteur du tourisme, l’ADT est chargé de déployer l’open data sur son territoire, il fait office de référent open data local et travaille en réseau.

Notre avis

L’initiative marque un pas de plus vers l’ouverture par défaut des données des collectivités et nous ne pouvons que féliciter les parties-prenantes de maintenir cette dynamique. Mais si l’histoire est le résultat des mouvements provoqués par des tensions, voici quelques commentaires et questions qui restent cependant en suspens selon nous.

Tout d’abord, le rapport offre une série de propositions des collectivités mais rien ne permet d’affirmer que toutes ces hypothèses seront mises en œuvre.

Le rapport a le mérite d’offrir une option réaliste d’ouverture technique généralisée, sauf que sa faisabilité tient sur une ouverture au rabais. Il semble que le plus petit dénominateur commun ait été pris comme modèle de base de prototypage : une commune de 3 501 habitants qui publierait 20 jeux de données statiques dont la moité pré-agrégée par l’État. Mais les modèles d’ouvertures, des agglomérations par exemple, de par la richesse, quantité et complexité de leurs données gagneraient à suivre un modèle plus élaboré.

Bien sûr il y a les phases prévues de prototypages pour répondre à toutes les questions en suspens. Mais il semble que les collectivités partent pour maintenir des démarches d’ouverture selon le triptyque « publication-animation-usages externes » dont le modèle, à l’heure des administrateurs généraux de données et data scientists pour usages internes, semble discutable pour les plus hauts niveaux d’ouverture. Seule une petite phrase mentionne d’ailleurs l’usage interne des données – Eat your own dog food – pour indiquer que cette approche est bien prévue, sans sembler pivot.

(Visionnez à ce propos la table ronde « Pilotage par les données et nouveaux métiers de l’open data » et autres captations du salon Open Data que Libertic co-organisait en septembre)

Le risque de cette généralisation d’ouverture de données a minima est d’entrer dans une simple démarche de publication automatisée, de données dissociées des usages internes, et donc à obsolescence programmée, générant une production de données orphelines en masse. Vous voulez un exemple ? Multipliez désormais par 3 800 communes et EPCI.

Il est regrettable que les sujets de prospectives (bien que d’actualité pour certaines collectivités) aient été écartés du rapport, tel que les scénarios d’ouverture conjointe de données publiques, privées et d’acteurs tiers d’un territoire. Ceux-ci représentent un modèle d’intérêt pour les agglomérations mais ont été considérés comme ne relevant pas du cadre de l’étude car « ils ne concernent que les acteurs les plus matures de l’open data ». Dommage de ne pas avoir profité de cet exercice pour préparer également le futur.

Un autre terme absent du rapport : la gouvernance ouverte. Il est en fait cité une petite fois pour préciser que ce thème sortait lui aussi du cadre de l’étude. À deux mois du sommet mondial que la France présidera à Paris, il n’est toujours pas d’actualité d’aborder l’open data sous l’axe d’une cohérence globale d’actions de modernisation de l’action publique. On regrettera une vision segmentée entre processus technique et organisationnel car sans travail d’acculturation, engager un réel développement autour de l’usage des données risque de s’avérer difficile.

Cette vision hypersectorisée de l’open data des collectivités induit plusieurs problèmes. La question de la durabilité du mouvement et celle des bénéfices économiques. Les collectivités peinent à identifier un marché pour leurs données publiques, le leur étant trop fragmenté et dissocié des données nationales et des informations publiques qui constituent les bases des évaluations réalisées. La dernière étude « Open Data Maturity in Europe 2016 » mentionne ainsi une croissance prévue de 36.9% de la valeur du marché des données publiques ouvertes pour atteindre 75,7 milliards en Europe pour 2020. Or, ces projections contiennent les bénéfices internes aux administrations et ne spécifient pas la part de données locales.

Nous pouvons enfin nous questionner sur la capacité d’ OpendataFrance à mettre en œuvre cette normalisation annoncée. Cela fait trois ans que l’association travaille à la mise en œuvre de standards, avec relativement peu de résultats à ce jour. D’ailleurs l’association n’a toujours pas réussi à normaliser le terme « open data » orthographié « opendata » dans son rapport. Et l’une des seules normalisations effectives autour des deux licences de données ouvertes (LO et OdbL) sera bientôt affaiblie par OpendataFrance elle-même, avec la création d’une nouvelle version OdbL v2 actuellement en travaux.

Pour sa décharge, il est vrai que l’association n’avait jusqu’à présent que peu de budgets et travaillait avec des bénévoles.

Mais qu’en est-il du financement de la mise en œuvre justement ? Étrangement, ce rapport ne définit aucune estimation budgétaire. Quel coût ? Quel modèle économique ? Quelle prise en compte des évolutions de financements des régions par exemple ? Une prise en charge par les collectivités ? Un financement de l’État ? Si oui, est-il prévu avant les élections présidentielles ?

Enfin, en guise de propositions concrètes, le rapport énumère de vagues intentions dont la mise en œuvre n’est pas détaillée : mener conjointement l’ouverture avec la CADA et la CNIL, améliorer les données en facilitant les retours de réutilisateurs… On aurait aimé des propositions d’actions plus concrètes. D’ailleurs, lorsque les propositions sont plus précises, l’intégration de fonctionnalités d’export de données pour les logiciels métiers par exemple, on soupçonne les difficultés cachées. Prenons le cas des fonctions d’exports de données GTFS (normes poussée par Google pour les transports publics), l’export est maintenant présent dans de nombreux logiciels-métiers mais souvent encore la donnée est inutilisable car l’intégrité des données n’a pas été vérifiée.

Libertic est implantée en Pays de la Loire et a accompagné la région dans son étude de création d’un Datalab. Libertic est également membre associé d’OpendataFrance, association créée suite à l‘initative de rencontre des collectivités en 2012. Enfin Libertic a été consulté pour la rédaction de ce rapport.


Via un article de libertic, publié le 23 octobre 2016

©© a-brest, article sous licence creative common info