Un article repris du Blog de Philippe Aigrain et publié sous contrat Creative Commons by-sa
Je suis émerveillé de la vitesse à laquelle journalistes et commentateurs ont
réussi à lire le rapport Attali, ses 245 pages, ses 20 décisions
fondamentales, ses 316 mesures et ses 8 ambitions, et à décider ce qui y
était important ou essentiel. C’est une performance sportive et un exploit
intellectuel. Le rapport se présente en entrée comme :
un ensemble cohérent, dont chaque pièce est articulée avec les autres
dont chaque élément constitue la clé de la réussite du tout.
Il me faudra un peu plus de temps pour vérifier s’il s’agit d’une anticipation
(figure de rhétorique par laquelle on réfute une objection possible) ou si
vraiment tout cela est si bien coordonné. Les commentateurs (et le
destinataire du rapport lui-même) semblent avoir pour l’instant lu
essentiellement les 20 décisions fondamentales. Je commente ici un aspect qui
n’a pas l’honneur de ce hit-parade[1], mais qui intéresse probablement les
lecteurs de ce blog : la partie “numérique passeport de la croissance” où
sont discutées les mesures sur les techniques de l’information et de la
communication et leurs liens avec les activités culturelles. Je sais, il y a
bien autre chose à discuter dans le rapport et même dans l’objectif général
visé, mais commençons par nous plonger dans un volet de son contenu.
La licence globale sans le nom
Sous le chapeau de l’objectif, “assurer une rémunération juste des acteurs de
l’économie numérique”, on trouve un rejet clair non seulement des DRMs mais
également des mécanismes de filtrage et autres surveillance des usages et
exclusions de l’accès à internet qui constituent la substance des
propositions de la Commission Olivennes et de la politique poussée par la
France au niveau européen. La proposition (décision 57) porte sur un
mécanisme de licence globale pour les échanges non commerciaux de musique et
de vidéo sur internet, à laquelle ne manque … que le nom (sans doute tabou).
Et bien on se passera très bien du nom si on a la chose, et il faut saluer la
clarté et la netteté de ce passage du rapport. Le destinataire du rapport n’a
pas inclus ce point dans ceux pour lesquels il a fait connaître son désaccord
(abolition des départements et du principe de précaution). Tous les espoirs
sont donc permis. Mais il ne suffira pas d’espérer : interpellons.
La commission Attali a préféré présenter la redevance comme frappant les
fournisseurs d’accès (et répercutable sur les usagers) et non comme une
contribution acquittée par les abonnés. Cela ne fait de différence que
symbolique, mais le symbole est ici important puisqu’une contribution de
chacun signifie aussi un droit de regard de chacun sur l’usage qui en est
fait. La commission Attali (tout comme le PC lorsqu’il s’est prononcé sur ses
sujets) semble préférer penser transferts dans la chaîne de valeur ajoutée et
non mutualisation sociale. Pourtant, on retrouve une approche de
mutualisation dans d’autres propositions (cf. plus bas) et l’expliciter
permettrait de penser ce qu’elle a de commun.
La commission propose d’inclure l’échange de vidéo dans le dispositif, ce qui
est logique, mais ne peut suffire (contrairement au cas de la musique) à
compléter de façon satisfaisante les mécanismes existants de financement de
la création audiovisuelle. Logiquement, elle complète donc cela par des
dispositifs spécifiques pour ce domaine.
Une niche pour les logiciels libres ?
Le rapport souhaite “promouvoir la concurrence entre logiciels libres et
propriétaires”. Il développe à cet effet des propositions qui étaient déjà
incluses dans le rapport produit par MERIT et Sopinspace pour la commission
européenne sur l’impact économique et sur l’innovation des logiciels libres :
équité dans les appels d’offres, bénéfices fiscaux des aides à la
contribution aux logiciels libres, normes internationales d’interopérabilité.
Par contre la proposition détaillée (objectif 58) fait apparaître une
certaine confusion ou à tout le moins un besoin de clarification. La
commission Attali mentionne un chiffre de 2% de part de marché (concept dont
l’application au libre soulève quelques problèmes) pour le libre qui est
celui (sous estimé) de la présence de GNU/Linux sur le desktop. Elle propose
un objectif de passer d’ici 2012 à “20% des applications nouvellement
développées ou installées au profit du secteur public en open source”. Or ce
chiffre est déjà largement dépassé dans de nombreux domaines ( soubassements
d’internet, serveurs Web, applications fiscales, systèmes de gestion de
contenus, débat public et participation, certains aspects de la sécurité) et
une transition rapide s’effectue dans d’autres (suites bureautiques,
navigateurs). L’étude MERIT/Sopinspace montrait qu’une augmentation de 20% du
pourcentage des investissments logiciels allant à des solutions libres se
traduirait par un bénéfice de croissance supplémentaire de 0,1% par an. Mais
cette augmentation de 20% ne se fait pas à partir de zéro, heureusement, ni
dans les administrations, ni dans le secteur privé.
Sur l’interopérabilité, le rapport propose “la fixation de normes
internationales garantissant l’interopérabilité entre logiciels libres et les
logiciels propriétaires, en priorité”. On peut penser que le rapport Attali
se range par là à la définition des normes ouvertes d’IDABC (p. 29) ou de la
LCEN art.4, qui n’acceptent comme normes ouvertes que celles dont la mise en
oeuvre est libre de droits ou bénéficie de licences irrévocables,
non-discriminatoires et sans royalties. Mais il serait plus clair de le
préciser.
La réduction des fractures numériques
La réductions des inégalités sociales dans l’usage et la pertinence d’usage
des TIC et d’internet fait l’objet d’un traitement assez hétéroclite.
Recommander la généralisation d’un “brevet informatique et internet” proche
du passeport de compétences informatiques européen relève de la mauvaise
plaisanterie : ce passeport atteste de la capacité à effectuer des opérations
fonctionnelles dans l’usage de produits logiciels particuliers et nullement
de ce qui fait réellement défaut dans les situations concrètes d’usage des
techniques. La compréhension de ce qu’est l’informatique et l’information, et
celle des contextes dans lesquelles on l’utilise manquent bien plus que
le “savoir cliquer là où il faut dans Word”.
A l’opposé les propositions sur l’organisation d’espaces d’apprentissage
collectifs sont clairement pertinentes. Celle sur les usages accompagnés dans
les espaces publics numériques gagnerait à préciser qu’il s’agit aujourd’hui
d’installer ces espaces dans les lieux de vie concrets (dans chaque immeuble
ou lieu collectif). La proposition des tuteurs à domicile et celle
d’ouverture aux familles des espaces dédiés à l’école sont excellentes.
Des ressources pour la création ?
Le rapport aborde le financement de la création audiovisuelle sous l’étiquette
générale des ressources consacrées au contenu : il doit s’agir d’un effet
secondaire d’un effet secondaire de la taille des egos audiovisuels. Mais il
est vrai que c’est un domaine où l’existence de mécanismes d’organisation à
priori des financements est nécessaire. La commission Attali propose
(décision 60) de redéployer les ressources consacrées au contenu (entendre
les contenus audiovisuels) en les prélevant sur la redevance et les recettes
publicitaires. Pourquoi pas : toute forme de mutualisation des ressources de
la création est utile, et il est normal qu’acteurs publics comme privés y
contribuent (ou plus exactement, au total c’est toujours le public, dans le
sens de chacun de nous, qui y contribue). Mais on aurait aimé en savoir un
peu plus sur la gouvernance proposée pour ces mécanismes et le lien qu’ils
entretiennent avec les mécanismes existants.
Un haut commissaire de plus ?
S’inquiétant de la multiplicité et de la faiblesse des organismes chargés de
tel ou tel aspect du développement numérique, la commission Attali propose …
d’en créer un de plus, rattaché au premier ministre et les fédérant sous son
autorité. L’intention est bonne, mais l’expérience d’opérations similaires
indique qu’il serait plus convaincant d’en supprimer quelques unes en
parallèle et de rassembler directement partie des autres plutôt que de
les “placer sous l’autorité” d’un commissaire.
Un train de retard sur les nanotechnologies
L’ensemble des acteurs du domaine s’efforce de démêler la confusion crée par
l’usage du terme nanotechnologies pour rassembler dans un slogan de marketing
des démarches scientifiques et technologiques qui n’ont rien à voir (pas même
leur échelle, puisqu’il s’agit très souvent en réalité de microtechnologies).
La commission semble n’avoir pas d’états d’âme ou manquer d’information en la
matière puisqu’elle propose sans autre forme de procès (décision 65)
de “réorienter massivement la recherche publique et privée vers les
nanotechnologies”. “De quoi parle-t-on ?”, “Comment procède-t-on ?” seraient
des questions plus pertinentes.
[1] TIC et numérique apparaissent dans le résumé exécutif mais de façon annexe
au sein de listes : maîtrise de l’informatique par les élèves avant la fin de
la sixième, campus virtuels, présence du “numérique” dans la liste des
secteurs stratégiques pour la recherche, TIC dans les écopolis.