@ Brest

Relier et partager autour du web

Champs Libres, entretien avec Hervé Le Crosnier : les biens communs contre les nouvelles enclosures

Une compétition fait rage, à travers l’histoire de la gratuité : des communautés décidées à soustraire certains champs ou objets à la pression marchande (qu’il s’agisse de subsistance, de connaissance, de soin...) font face à un capitalisme s’efforçant de capter ces sources potentielles de nouveaux investissements. Dans ce conflit, la réflexion sur les biens communs est à l’image de la dynamique qu’elle tâche de décrire : mobile, transposable, ouverte à de nouveaux usages. Entretien avec l’un de ses promoteurs.

un entretien réalisé par entretien réalisé par Stany Grelet, Aude Lalande & Victoire Patouillard et publié dans la revue Vacarmes, une publication sous contrat Creative Commons by nc nd


Votre plaidoirie pour un accès non marchand à la connaissance s’adosse à la théorie des biens communs. Pourriez-vous nous expliquer ce qu’il en est ?

Au XIIe siècle, un droit d’usage voulait que dans les forêts et sur les terres communales, les villageois soient autorisés à laisser paître leurs bêtes, ramasser du bois mort, récolter du miel ou des champignons. Ces droits n’avaient nul besoin d’être inscrits dans des lois puisqu’il s’agissait de biens communs (en anglais, commons). Mais au XIIIe siècle, en Angleterre, le roi Jean et les Barons lancent un mouvement d’enclosure des Communs et provoquent une révolte populaire. De cette bataille et de l’opposition des Barons au roi d’Angleterre sont nés en 1215 deux traités : la Magna Carta et la Charte des Forêts. Tandis que la première consacrait le droit constitutionnel et les droits politiques des citoyens (l’habeas corpus), la Charte des Forêts définissait les droits économiques et sociaux de ceux qui avaient tout perdu en étant expropriés des Communs. Mais la maigre protection qu’elle leur offrait en inscrivant dans le droit un libre usage des forêts n’a pas suffi : la mainmise des Barons sur les terres s’est traduite par la perte de ce qui permettait aux plus pauvres une vie communautaire et libre. Condamnés à l’exode, ils sont allés grossir les masses laborieuses des villes et ont fourni au capitalisme la main-d’oeuvre dont il avait besoin. La terre était devenue un capital qu’on pouvait faire fructifier, une propriété qu’on pouvait revendre, un héritage qu’on pouvait transmettre, en bref une marchandise. Et partout dans le monde, l’histoire des enclosures se répète : à la fin du XIXe siècle, les forêts qui avaient servi derrière New York de terrains de chasse et de pêche aux Indiens et aux premiers colons sont transformées en réserve naturelle protégée par des gardes forestiers. Les gens qui avaient trouvé le moyen d’y vivre en sont exclus au nom d’une propriété collective, mais d’État.

Comment cette question très ancienne redevient-elle une question d’actualité ?

C’est d’abord l’écologie qui la remet à l’ordre du jour dans les années 1970 en attirant l’attention sur la réduction de ces espaces qui constituent les Communs de la terre : les océans, l’Antarctique, les forêts, l’atmosphère qu’on respire… Évidemment, comme pour les bois qui entourent New York, la question se pose de savoir si ces biens appartiennent au domaine public ou si ce sont des biens communs, mais une chose est certaine : ils n’appartiennent pas aux gens qui les épuisent. On se retrouve donc face à une situation nouvelle qui exige de trouver un mode de gouvernance pour des biens qui n’appartiennent à personne et dont on découvre qu’ils sont épuisables. Soit on laisse aux instances publiques le soin de réglementer (c’est le droit de la mer, la conférence sur le climat, le droit de l’Antarctique, le droit de l’espace, la répartition du spectre électromagnétique, etc.), avec les limites inhérentes à toute réglementation internationale, faiblement contraignante et étroitement conditionnée par les rapports de forces internationaux. Soit on confie aux communautés le soin de préserver les biens communs par lesquels elles vivent, en s’appuyant sur la conviction que si par exemple les forêts primaires sont en train de reculer, c’est parce qu’on a affaibli les communautés qui les géraient.

Que répondre à la critique du biologiste Garrett Hardin dans La Tragédie des Communs, selon laquelle « le libre usage des communs conduit à la ruine de tous » ?

Hardin a utilisé l’image d’un champ, en 1968, pour critiquer l’existence de biens communs : si le champ où paissent les troupeaux est un bien commun, chaque éleveur, pour maximiser son profit, aura intérêt à accroître son cheptel jusqu’à épuisement complet du pâturage. Seule solution : la privatisation des terres. Cette « tragédie des Communs » doit son succès à son adéquation avec l’idéologie libérale : elle offre une justification de l’appropriation privée au nom de l’environnement et de l’intérêt général. Mais sa démonstration suppose qu’il n’y ait ni règle d’usage, ni discussion entre les éleveurs. Elle est battue en brèche par les travaux du dernier prix Nobel d’économie, Elinor Ostrom, qui a notamment étudié les réseaux d’irrigation et les modes de gouvernance des communautés qui les organisent. Là où un raisonnement simpliste se contente de souligner que celui qui est le plus près de la source risque de pomper toute l’eau s’il ne la paie pas, Elinor Ostrom montre comment s’opère une régulation des modalités d’accès à l’eau par les gens qui en ont la responsabilité. Un bien commun n’existe qu’à travers une communauté qui se fixe des règles et se donne les moyens de les appliquer.

Comment les années 1990 voient-elles ressurgir la question ?

À la fin des années 1990, la théorie des Communs renouvelle la réflexion dans un autre champ que l’écologie, celui de la connaissance. Avec le développement d’internet, les connaissances, la culture, le réseau numérique lui-même peuvent être pensés comme des Communs, partagés par les usagers. On y retrouve l’idée centrale d’un accord entre le libre accès aux ressources communes et des règles de gestion communautaires pour assurer la permanence d’un travail coopératif. Mais c’est encore plus sensible car les Communs de la connaissance ne sont pas soustractibles et les outils nouveaux mis en œuvre permettent à chacun de devenir média, de créer un journal, une radio ou une télévision à partir de son ordinateur et de quelques logiciels. Dès lors qu’un film, un livre ou un article a été numérisé, il acquiert en effet les caractéristiques d’un bien public : son coût de reproduction étant tombé à zéro, il devient dans le vocabulaire de la science économique à la fois non-rival et non-exclusif, et son usage est potentiellement sans limite. Mais les Communs de la connaissance sont aussi vulnérables que les forêts médiévales : en 2003 James Boyle, un professeur de droit américain spécialiste de la propriété intellectuelle, dénonce les « nouvelles enclosures » qui les menacent. Ces barrières prennent des formes multiples : renforcement de la propriété intellectuelle (DMCA aux États-Unis, DADVSI en France), verrous numériques (DRM) et protection juridique de ces verrous (les faire sauter devient un délit), brevets sur les logiciels ou brevets sur les inventions. La vulnérabilité des Communs de la connaissance tient également au risque dit du « passager clandestin » : il suffit que quelqu’un vienne et s’approprie ce bien commun engendré par le travail coopératif de milliers de personnes pour qu’elles en soient dépossédées au profit d’un monopole. Ce qui met en jeu la capacité des communautés à garantir l’accès aux biens communs qu’elles ont produits. C’est pour contrer la menace d’une privatisation du logiciel libre que Richard Stallman a inventé la General Public Licence (GPL) en 1989. Cette licence autorise tout usage (utilisation, étude du code source, partage et modification), mais elle contraint celui qui s’appuie sur du code libre à rendre à la communauté les ajouts et corrections qu’il aura éventuellement apportés : tout logiciel qui utilise du logiciel libre doit lui aussi rester un logiciel libre. C’est une démarche radicalement opposée à la logique des OGM.

À quel point la référence aux biens communs relève-t-elle aujourd’hui d’un langage partagé ?

L’intérêt théorique et pratique est croissant. Ce sont des chercheurs qui défendent un accès libre aux publications scientifiques : voyez la Déclaration de Budapest pour l’accès libre, en 2002. Ce sont les mouvements sociaux du numérique qui créent en 2001 les Creative commons en réponse aux nouvelles enclosures, et Elinor Ostrom et Charlotte Hess qui commencent à travailler sur l’idée que la connaissance peut être considérée comme un bien commun (Understanding Knowledge as a Commons, 2007). Mais la pratique précède la théorie : pour les scientifiques, rendre accessibles ses travaux et avoir accès aux résultats d’autres chercheurs relève de la pulsion épistémologique. Dans la logique traditionnelle, un chercheur publie dans des revues spécialisées, achetées par des bibliothèques à destination d’autres chercheurs. Je me souviens de statistiques selon lesquelles un article publié dans ce type de revues est, en moyenne, lu douze fois et cité zéro fois ou presque. Pour donner une échelle de grandeur, un article cité cent fois devient un classique en bibliométrie traditionnelle. Depuis quinze ans, avec le libre accès, la communauté des lecteurs s’élargit au-delà des chercheurs et de la communauté scientifique, et avec elle la possibilité d’être lu, cité, connu.

Chercheurs pour le libre accès aux recherches scientifiques, paysans contre les OGM, malades du sida mobilisés pour la production générique de traitements… le mouvement n’est-il pas trop hétérogène ? La théorie trop accueillante ?

Il est vrai qu’on peut parler d’inspiration réciproque, avec des tentatives de regroupement, comme le mouvement Access To Knowledge, sans qu’il existe pour l’instant de théorie englobante. Sans doute un travail théorique serait-il nécessaire à l’échelle du monde, avec une mise en musique des forces culturelles pour l’accompagner, qui auraient la force du Blowin’ in the Wind de Dylan. Aux lendemains de Flopenhague (sic), si la pression du mouvement parvient à convaincre que le modèle choisi — le marché du carbone — n’est pas un modèle adéquat, de nouveaux espaces s’ouvriront peut-être. On ne peut pas dire qu’on veut construire une société de la connaissance et réduire cette connaissance à l’outil marchandisable : au brevet ou au droit d’auteur. Il faudra nécessairement valoriser les externalités positives de cette économie de la connaissance, le temps libre, l’éducation tout au long de la vie, trouver des manières de dire que nous sommes plus riches quand nous sommes plus éduqués, quand nous accédons à plus de connaissance et de culture. C’est le travail de la commission conduite par Joseph Stiglitz et Amartya Sen sur les nouveaux indicateurs de richesse. La question de la monétarisation de la culture et de l’immatériel constitue le pendant inverse de la gratuité de l’accès. Sur les questions agricoles, c’est la même chose : le groupe d’experts qui a rendu son avis au Sommet contre la faim de l’ONU en novembre dernier a souligné que la solution viendrait non pas du marché et de la privatisation des terres, mais de modes de gestion communautaires, d’échanges de semences, d’irrigations collectives, de méthodes qui renvoient à cette notion des Communs. Reste qu’il faut être prudent : le prix Nobel attribué à Elinor Ostrom peut aussi être le baiser du serpent. Une telle reconnaissance institutionnelle peut tuer dans l’œuf la dimension subversive des biens communs.

Comment articuler revendications d’accès aux biens communs et revendications de gratuité ?

Raisonner à partir de la gratuité, c’est prendre le problème du point de vue du consommateur. La production, elle, n’est jamais gratuite. L’école, par exemple, n’est pas gratuite. Il y a un modèle économique derrière : l’État qui prélève l’impôt et décide d’en affecter une partie à l’éducation. La question n’est donc pas : est-ce que c’est gratuit ?, mais : comment la production est-elle financée ? La gratuité peut aussi s’inscrire dans une stratégie de don/contre-don. Sur Myspace, les musiciens offrent un accès gratuit aux morceaux de musique qu’ils ont créés et en attendent un surcroît de notoriété. La gratuité, c’est le petit bout de la lorgnette. En même temps, ce bout n’est pas si petit que ça : s’il avait fallu payer pour internet, le réseau que nous connaissons n’aurait jamais existé.

La gratuité n’est donc pas sans effet.

C’est en effet ce que montre Yann Moulier-Boutang dans Le Capitalisme cognitif : la gratuité engendre des externalités positives. C’est certain. Mais à ne voir que cet aspect, on risque de perdre la capacité de trouver un mode de gouvernance des biens communs de la connaissance. Car la volonté des entreprises de marchandiser ce que d’autres ont donné est réelle. Google Books illustre parfaitement ce phénomène : quand l’entreprise s’approprie le contenu des bibliothèques — qui constituent une forme de biens communs, au sens où elles ne proposent pas seulement des livres, mais aussi une gouvernance collective de l’accès aux livres —, numérise ce contenu et ajoute de la publicité autour du texte, ce n’est plus une bibliothèque, c’est une librairie. À ce titre, la gratuité peut être un piège : il y a des choses gratuites qui ne sont pas libres. Prenez la presse gratuite, la télévision. Ce qui est financé par la publicité est gratuit, mais n’est certainement pas libre. Certes on a accès gratuitement à quelque chose, mais il faut payer en échange : payer de nous-mêmes, de notre attention, de notre temps de cerveau disponible.

Vous mobilisez une notion nouvelle : la valeur de pouvoir.

Les modèles traditionnels de la valeur d’usage et de la valeur d’échange ne suffisent plus selon moi à expliquer pourquoi une large part du capitalisme a investi dans la gratuité, pourquoi Google a organisé gratuitement l’accès à son système, au point que pour les premiers mouvements du numérique Google apparaissait comme un ami : c’était le moteur de recherche qu’on pouvait mettre sur sa page sans être inondé de publicité. Pour le comprendre, il faut raisonner en terme de pouvoir : le capitalisme cognitif est prêt à échanger une perte économique à court terme contre un gain en pouvoir à long terme, toujours potentiellement rentable. Twitter a adopté la même stratégie en permettant à ses usagers d’envoyer gratuitement des messages brefs. Cette multinationale compte soixante-dix salariés. À cette très petite échelle, il est facile de trouver des investisseurs. Twitter n’est pas pressée du tout de se faire racheter : sa valeur augmente avec le pouvoir qu’elle est en train d’acquérir. Elle a été centrale dans la campagne présidentielle d’Obama ou les manifestations en Iran. Mais il faut être réaliste, cela suppose qu’existe quelque part dans le monde de gigantesques data-servers. Google commence à envisager d’atteindre les dix millions de serveurs interconnectés. Pour FaceBook, on en est à 30 000.

Cela relativise la figure artisanale du petit producteur.

Oui, d’autant qu’on assiste à l’émergence d’une nouvelle catégorie d’acteurs, ce que j’appelle des « vecteurs », dont le projet est de maîtriser toute la chaîne de production et de produire une connaissance précise des usagers, de leurs goûts, de leurs affects, de leurs intérêts : ils pourront monnayer ensuite cette connaissance auprès de l’industrie de l’influence. L’exemple typique c’est Orange, qui part d’une compétence dans les télécommunications, mais s’étend sur la production de contenus, de services, de télévision. D’une manière générale, on observe une volonté des entreprises de s’approprier ce que d’autres ont donné. YouTube, un site de partage et d’hébergement de vidéos, a lancé un appel pour que les internautes envoient des vidéos qui pourraient être réutilisées par les chaînes de télévision. Avec la multiplication des appareils qui produisent des données, il n’est même pas nécessaire que les informations soient fournies consciemment. Google peut mesurer la propagation d’une épidémie de grippe mieux et plus vite que les instruments de veille sanitaire à partir des questions qui sont posées à son moteur de recherche. iPhone pourra calculer mieux que Bison Futé le temps moyen d’un trajet en voiture entre deux villes en agrégeant les données fournies par ses utilisateurs lors de leurs déplacements.

Que vous inspire la conjoncture politique actuelle ?

Ce qui est intéressant, c’est qu’on ne peut pas dissoudre les questions nouvelles dans les modes de réflexion anciens. Le mouvement du logiciel libre par exemple ne peut pas être défini en soi comme un mouvement anticapitaliste. Au moment du vote de la loi DADVSI (« droits d’auteurs et droits voisins dans la société de l’information »), alors qu’on débattait du financement de la musique, un sénateur communiste a proposé de créer une plateforme publique depuis laquelle tous les musiciens pourraient rendre accessibles leurs créations. Il mobilisait le modèle économique du « service public », malheureusement inadapté : la musique est depuis longtemps un marché établi ; il y aurait eu des conflits de droits inévitables, notamment en cas de succès commercial ultérieur d’œuvres déposées sur une telle plate-forme. Les licences non-exclusives choisies par les créateurs, comme les Creative commons, sont plus proches de l’économie réelle de la musique. Elles maintiennent la possibilité d’usages marchands, mais traités séparément de la logique de diffusion et de partage. Le modèle de gestion du domaine public ne peut pas résoudre toutes les questions soulevées par la fluidité de l’information et de la connaissance. Il reste pourtant essentiel dans certains secteurs. Par exemple pour les ressources pédagogiques ouvertes, ou encore pour le soutien aux revues en accès libre. Le Centre pour l’édition électronique ouverte (Cléo), qui développe le portail revues.org, fonctionne par exemple sur ce modèle. Il importe de reconnaître la multiplicité des solutions adaptées au nouveau régime de production, de diffusion et d’usage de la connaissance et de la culture. De ce point de vue, les gens les moins figés sur des cultures politiques sont certainement les plus à même de mener les combats politiques ouverts adaptés à ces propositions qui, tout en changeant les opportunités de vie collective, et en constituant en soi des formes de « révolution » dans les rapports de production, ne se plient pour autant pas aux contours des schémas classiques. Ce n’est pas un hasard si se tissent de nouvelles alliances politiques « trans-partis » sur ces questions, par exemple autour des logiciels libres. La bataille politique sur la loi DADVSI — un moment assez central en France, car pour la première fois le « droit d’auteur » y était vu en dehors d’un « consensus » — a été menée elle aussi à gauche par des militants plutôt marginaux dans leurs propres partis, à l’image de Martine Billard alors chez les Verts, Frédéric Dutoit au PC ou Christian Paul au PS. Mais cette remarque n’engage que moi.

Pour finir, une question un peu décalée peut-être : vous soulignez l’apport du mouvement féministe aux mouvements pour l’accès à la connaissance.

Le féminisme a été le premier mouvement à l’échelle du monde à dire : ma vie est politique. Si je gagne la bataille politique, ça va m’aider à vivre mieux. C’est la lutte contre le machisme, contre le viol, pour l’avortement libre et gratuit. Les mouvements liés aux biens communs ont hérité du féminisme l’idée que l’empowerment propre de ses membres constitue une victoire politique. Comme il n’y aura plus de petits matins et de grands soirs et qu’il faut bien gagner quand même, alors il faut que la vie se transforme et que les gens en participant à des mouvements soient plus libres et plus forts. Dans le mouvement des logiciels libres, l’apprentissage collectif est déterminant : à partir du moment où je donne l’accès à mon code (et pas seulement mon logiciel gratuitement), je fais de l’éducation, car chaque personne peut participer à l’amélioration du logiciel sans avoir besoin de le re-développer.

Les paysans qui échangent leurs semences se battent contre les trusts pour maintenir l’idée qu’une graine est tout autant l’objet social d’une communauté des paysans refusant la marchandisation, qu’un objet génétique qui va donner des plantes. Les chercheurs qui mettent leurs travaux scientifiques en open access y ont un intérêt académique. Mais ils y ont aussi un autre intérêt : celui de participer à une communauté, de s’en sentir les membres.

Hervé Le Crosnier est maître de conférence à l’Université de Caen, attaché au laboratoire GREYC (Groupe de recherche en informatique, image, automatique et instrumentation de Caen).
Posté le 16 octobre 2012
©© a-brest, article sous licence creative common info
flickr
Brest railway station, 05.05.2014.
par Dāvis Kļaviņš
Creative Commons BY-NC-SA