Rerprise de l’article publié mercredi 28 septembre 2005 par michaël thévenet , bernhard rieder sur Boson2X
Les articles publiés sur le site sont généralement couverts par la Licence de Libre Diffusion des Documents
Sphère publique et espaces procéduraux [1]
L’ordinateur devient très tôt dans son histoire un objet explicitement lié à l’idée d’une transformation de la société. Dès les années soixante, la culture des « hackers » commence à se répandre dans les laboratoires des universités américaines [1] et, au milieu des années soixante-dix, des intellectuels de la contre-culture comme Stewart Brand et Timothy Leary promeuvent [2] l’ordinateur en réseau comme outil de libération et de démocratisation. Certes, une sensibilité à la dimension politique des machines numériques existe depuis leur invention dans l’ombre de la bombe atomique ; mais elle devient un enjeu majeur avec la naissance de l’Arpanet, le précurseur de l’Internet, et cela pas seulement à cause de l’origine militaire de son financement- l’utopie d’une communauté sans hiérarchies se concrétise dans la mise en réseaux du monde académique. L’élaboration du projet GNU [3] par Richard Stallman, en 1984, la création de Linux par Linus Torvalds, en 1991, et la fondation de l’Open Source Initiative [4], en 1998, donnent une forme quasi institutionnelle à cette volonté d’utiliser l’ordinateur comme agent libérateur [5] et l’ancrent au sein de la communauté des programmeurs. L’Internet unifie et amplifie tous ces courants et provoque un vrai débordement du discours sur les possibilités politiques, civiques et sociales des réseaux numériques.
Même les sciences sociales, traditionnellement oublieuses du rôle de la technique, s’intéressent rapidement à ce nouvel objet étrange mais prometteur. Leur réflexion porte sur le potentiel de l’ordinateur et surtout de l’Internet de transformer en profondeur la façon dont se réalisent le discours public et la décision démocratique ainsi que la façon dont se forge le lien social ; pour cela, elles se fixent sur la question des changements dans les modes de communication. Explicitement ou implicitement, la plupart des études et travaux affirment avec John Hartley [6] que la sphère publique et les médias sont finalement les deux faces d’une même médaille, ce qui les conduit ensuite à se demander comment les conditions de circulation des messages introduites par les « nouveaux médias » modifient la constitution de cette sphère publique. Une telle perspective focalise l’attention sur le dialogue entre citoyens, son contenu, les conditions pour y participer et son intégration dans le projet démocratique à travers la production d’un consensus informé. Elle s’oriente suivant l’approche théorique de Jürgen Habermas pour qui le sujet moderne s’organise avec les autres en tant qu’agent autonome guidé par la rationalité. L’ordinateur mis en réseau est encore seulement vu comme une déclinaison des « médias électroniques », une autre façon de communiquer, de transporter des messages. La morphologie du discours demeure essentiellement résultat des processus sociaux.
Nous tentons d’argumenter ici que cette seule perspective manque d’éléments pour comprendre en quoi les machines numériques affectent la trame constitutive et peut-être la nature même de la sphère publique. Par « sphère publique » nous entendons ici la somme d’une multitude d’espaces qui fonctionnent comme les lieux à travers lesquels la société postindustrielle négocie les grandes lignes de sa propre évolution. Au pouvoir de l’État de conformer l’espace accordé à cette sphère par l’écriture de la Loi s’ajoute désormais une autre force qui dépasse d’une certaine manière le concept clé de « média ».
Nouveaux espaces
Pour comprendre les métamorphoses que provoque l’ordinateur, il faut d’abord souligner que l’espace médiatique qui se construit dans le Web, les forums, les chats et d’autres applications informatiques est élaboré, sur le plan technique, par la manipulation algorithmique de symboles dans un vaste écosystème numérique intégré, système complexe par excellence. Cet espace n’est jamais finalisé, il reste toujours ouvert à l’expansion, la modification et l’effondrement. En tant que machine universelle [7], l’ordinateur ouvre un champ du possible qui n’est limité que par notre capacité « rhétorique » de programmer - un art en mutation permanente.
Pour régler le fonctionnement de tels systèmes complexes, Herbert Simon distingue [8] deux principes fondamentaux : l’état et le processus ; en informatique, on parlera plutôt de donnée et d’algorithme. Même si le couple état/processus forme une entité insécable, l’un ou l’autre des principes peut à un moment être dominant. Avec le succès de l’Internet, c’était le transport et le stockage d’information (état) qui dominait d’un coup l’image de la machine numérique ; avec la maturation de la technologie, le traitement d’information (processus) reprend de l’importance. Les tentatives de rendre les informations mises à disposition sur le Web plus adaptées au traitement par la machine (Web sémantique, XML, etc.) reflètent cette nécessité d’instaurer des processus dans un espace qui est devenu juste trop grand et trop complexe pour être maîtrisé par l’humain seul. L’incommensurable prolifération des données exige des algorithmes qui aident à tracer des chemins de sens dans le chaos numérique.
La sphère publique en tant qu’espace de participation et de dialogue n’est pas indifférente aux évolutions techniques. Sur un plan abstrait, nous pourrions dire que les espaces classiques constitutifs de la sphère publique ressortent essentiellement des états. Les processus nécessaires pour son fonctionnement sont l’effet d’êtres humains, l’espace même restant sans activité propre, inerte. La dichotomie entre actif et passif, énergie et matière s’aligne avec celle qui oppose sujet et objet. Cela ne veut pas dire que la forme (Gestalt) de ces espaces, le café du XVIIIe siècle, le salon du XIXe siècle ou le feuilleton des grands journaux, n’avait pas d’influence sur les discours qui s’y déroulaient, bien au contraire. En tant que « dispositifs [9] », ils sont autant le terrain que l’environnement physique et symbolique qui imprègne le dit et le non-dit. Mais en passant dans le numérique, les processus s’intègrent dans la matière même et l’espace physique cède à ce que nous avons choisi d’appeler « espace procédural ». Afin de décrire celui-ci, nous tenons à garder la notion de « médiation » [10], bien qu’il nous semble que le terme « média » ne suffise plus pour capturer la complexité d’un espace envahi de tous côtés par les processus algorithmiques.
Il faut pourtant se prémunir contre l’attrait de la nouveauté. La différence entre les espaces physiques de rassemblement, les médias classiques et les réseaux numériques ne s’exprime pas par la présence ou l’absence de processus, mais plutôt par le niveau d’énergie nécessaire pour faire fonctionner ces processus. Dans l’espace numérique, l’investissement énergétique est extrêmement faible comparé à celui consenti dans l’espace physique. Or, intégrer dans l’architecture de l’espace numérique des processus autonomes, difficilement caractérisables sans recourir à un « agens », devient tellement facile qu’on ne peut plus l’ignorer. La sphère publique, comprise elle-même comme espace, n’est pas indifférente à ce glissement.
Une agora procédurale : Slashdot
Nous proposons de situer ce développement dans un champ moins abstrait pour ensuite en discuter quelques implications. Rappelons d’abord que Habermas [11] donne trois conditions d’émergence d’une sphère publique où puisse se forger l’opinion publique : accès universel, débat rationnel visant le consensus, égalité des participants. L’organisation dans l’espace physique d’une agora conforme à cet idéal demanderait des ressources énergétiques colossales ; serait limitée dans le temps et l’espace ; et nécessiterait de déléguer à un groupe d’individus les moyens de contrôler l’activité des participants. Malgré tout cela, aucune des conditions fixées ne serait pleinement respectée.
Sur le web en revanche, ces problèmes d’organisation du social peuvent être abordés directement par la programmation d’un espace procédural, ainsi dans la communauté Slashdot [12]. Les informations (stories) envoyées par les utilisateurs du site sont publiées après validation par l’équipe éditoriale tandis que les commentaires (comments) des internautes sont relus et validés a posteriori. D’une douzaine à quelques milliers par jour, le nombre des commentaires a posé un problème de contrôle insoluble humainement, même avec cinq, vingt-cinq puis quatre cents modérateurs. Les auteurs du site choisirent alors d’automatiser les processus suivants :
- quantification de l’investissement individuel dans la communauté, mesuré par le « karma » de l’utilisateur ;
- distribution du pouvoir de modération des commentaires sur l’ensemble des utilisateurs réguliers par rapport à leur karma ;
- classement visible des contributions du meilleur au pire, sans en effacer (même si un commentaire peut devenir pratiquement invisible) ;
- filtrage possible des commentaires pour modifier le rapport signal/bruit ;
- instauration d’une « métamodération » appliquée au travail des modérateurs [13] et elle aussi distribuée sur la communauté.
L’accès à l’agora numérique est permanent et non localisé géographiquement ; la qualité du débat augmentée par le duo classement/filtrage ; surtout, l’égalité statutaire des utilisateurs est assurée par le système lui-même. Si Slashdot est une meilleure approximation de la sphère publique idéalisée par Habermas qu’une agora physique, confirmant ainsi l’intuition de l’historien Mark Poster [14], elle reste loin d’une réalisation totale. Certes, les utilisateurs identifiés de Slashdot assument les deux types de modération du discours ; mais qu’est ce pouvoir obtenu en partage par la communauté en regard de celui des auteurs du Slashcode [15] sur le devenir du site ?
Dans le cas de Slashdot, l’architecture de l’espace ne repose pas seulement sur une mécanique déterministe qui conditionne l’acte énonciateur mais aussi sur des processus structurants qui opèrent dans la sphère plus floue et sémantique de l’organisation du pouvoir et du capital symbolique [16]. L’attribution du « karma », représentation et valorisation des utilisateurs par des algorithmes autonomes, se produit dans un champ effectivement hybride où les pratiques humaines rencontrent les processus de la machine. La forme, l’efficacité et les valeurs imbriquées dans la structure par les algorithmes qui gèrent le système se situent hors de portée des utilisateurs, qui ne peuvent les modifier.
Du code à la loi
Le subtil équilibre bâti au fil du temps dans le Slashcode se retrouve sous des formes plus rudimentaires dans les technologies de filtrage automatique qui émergent dans de multiples lieux de l’Internet. Bien que le « Communications Decency Act » [17] n’ait pas pu être mis légalement en place, de plus en plus de forums l’appliquent dans les faits à travers des traitements automatisés. Ces systèmes [18] peuvent bloquer la publication d’un message qui contient des mots déclarés « inappropriés » ou juste les remplacer par un « *piep* ». Pour l’instant, ces programmes censeurs très facilement intégrables dans un espace procédural exploitent des techniques simples de reconnaissance de formes, en l’attendant l’arrivée prévisible de techniques plus subtiles basées sur le traitement du langage naturel.
Si cette atteinte aveugle au discours déclenche la réticence, la délégation d’autres traitements à des automates, comme la chasse au « spam », au « phishing » ou aux virus, est généralement vue avec sympathie. Ces logiciels, pour opérer efficacement, accomplissent une interprétation et un classement du contenu des messages pour décider de leur sort - blocage ou non. Les flux d’information, déjà formatés par les normes de l’espace (medium), le sont désormais par les filtres qui traitent leur contenu (message) par des processus toujours plus complets. C’est le passage au traitement algorithmique, à l’intérieur du numérique, qui rend l’espace formant la sphère publique sensible au sens qui s’y produit.
Les débats récurrents autour du « ranking [19] » de Google montrent bien l’intérêt grandissant que ce sujet suscite auprès d’un public plus nombreux et concerné. L’interprétation d’un message, de son importance, est une activité profondément subjective ; pourtant, au prétexte que les processus qui classent l’information dans les moteurs de recherche sont mécaniques, la modernité voudrait que cela suffise à les instaurer en garants de la précision et de l’objectivité. Nous rencontrons ici la vraie question de l’agens qu’il faudrait attribuer aux espaces procéduraux : les espaces qui filtrent, classent, interprètent et décident d’une façon autonome revendiquent une nouvelle perspective sur l’organisation de la sphère publique, désormais hybride.
Les transformations qui s’annoncent ici ne sortent pas du chapeau d’un magicien (pour le spectateur non-initié, elles le pourraient [20]) mais d’un travail laborieux d’écriture de code informatique. Celle-là même qui, circulant à la vitesse de la lumière dans les réseaux, conteste au quotidien le pouvoir jusqu’alors incontesté de l’écriture du code juridique.
Pouvoir et écriture
Le pouvoir dans le cadre d’une société en réseau s’exerce, selon Bressand et Distler, sur trois niveaux : infrastructures physiques, services, règles d’accès. Le premier niveau est essentiellement lié aux pouvoirs qui agissent dans l’espace physique, l’État et l’économie ; les deux autres niveaux sont regroupés sous le terme softpower par les auteurs, qui en parlent comme « d’un pouvoir au second degré, d’un pouvoir sur le déploiement des pouvoirs » [21]. Le softpower affecte directement l’espace numérique mais il faut pour l’exercer en avoir la capacité technique, c’est-à-dire en connaître les langages.
Alors que Habermas puise sa réflexion sur la sphère publique dans la parole quotidienne [22], la régulation des trois niveaux de pouvoir, qui conditionnent l’extension, la densité et la fonctionnalité de la sphère publique, passe par le langage : la Loi pour l’État, le code informatique pour l’espace numérique. Ce code constitue la grammaire du softpower, mais son pouvoir de création s’arrête, en théorie au moins [23], aux frontières fixées par la Loi. Lawrence Lessig a même lu un arrêt de mort pour l’innovation globale dans les lois votées aux États-Unis après le 11septembre 2001 [24].
Pourtant, Lessig constate simultanément qu’une loi comme le Communications Decency Act n’a pas besoin d’être votée et promulguée pour être mise en application dans les réseaux par ceux qui la pensent nécessaire. Les espaces procéduraux permettent à leurs auteurs de tisser des « quasi-lois » dans leur trame constitutive, des processus qui fonctionnent effectivement comme éléments conditionnant le comportement des êtres humains qui y pénètrent. La structuration de la sphère publique se déroule désormais dans et hors du code juridique, et cette activité repose sur des codes informatiques tenus secrets par ceux qui en revendiquent la propriété.
Observer et comprendre l’écriture juridique demande une culture « d’honnête homme », sans plus : le texte reste directement lisible, malgré la langue si typée des juristes. Son application est observable avec les mêmes prérequis car ce sont des humains, professionnels de justice, qui interprètent et appliquent au quotidien les processus décrits par le code juridique.
À l’opposé, le code informatique exige des savoirs techniques particuliers, l’apprentissage de langages formels et d’algorithmie, pour dévoiler son sens, lorsqu’il est accessible. Comme l’a montré [25] Emmanuël Souchier, l’écriture informatique a ceci de remarquable qu’elle est invisible. Le programme affiché à l’écran, le code source compréhensible, n’est pas le programme exécutable par la machine, le code binaire incompréhensible (il en va de même pour les données). Le degré de liberté du programmeur dépend de sa capacité à formaliser sa pensée non seulement comme ensemble d’informations réductibles en données numériques mais aussi comme logiciel pour traiter ces données et comme interface de présentation des résultats. Ce travail de l’élaboration d’un espace procédural se fait traditionnellement dans l’ombre, celle où travaille l’individu solitaire ou celle que projette l’entreprise sur ses employés.
C’est ici qu’intervient le mouvement Open Source, évoqué au début de cet article. En s’inspirant des méthodes démocratiques classiques, ouvertes et égalitaires, la programmation se fait de plus en plus dans la lumière. Certes, les limitations qui caractérisent le monde juridique opèrent également dans le numérique : le potentiel de critique n’existe que pour l’expert qui possède les connaissances nécessaires pour lire les codes sources, c’est-à-dire de décrypter les langages de programmation. Le principe de contrôle appliqué aux processus algorithmiques se réalise ainsi dans l’espace numérique comme le principe de contrôle appliqué au code juridique se réalise dans l’État de droit.
Inspiration réciproque
De plus, les modèles algorithmiques et juridiques fournissent des sources d’inspiration réciproques. Une partie de l’élaboration juridique se réapproprie les stratégies communautaires qui règnent dans le mouvement Open Source en créant ses propres espaces procéduraux. Les producteurs de logiciels, et avec eux les membres d’autres domaines de la production créative, ont commencé de rédiger des documents légaux qui servent à protéger juridiquement ces espaces de visibilité et d’échange qui se sont installés au sein même de la sphère publique.
Le combat que mène Lessig en faveur du bien commun [26], la chair même de la sphère publique numérisée, à travers les licences de libre diffusion Creative Commons est exemplaire. Ces « contrats de mise à disposition d’œuvres », qui reflètent l’intention des auteurs [27], sont élaborés pour opérer au niveau mondial grâce aux Commons Deed et au code informatique, au niveau local grâce au code juridique adapté à chaque espace national.
Leur fonction, comme pour toutes les licences comparables [28], est de garantir les créations de tous ordres d’une appropriation indue. Leur élaboration se déroule de manière collaborative, sur le site des Creative Commons et par des listes de diffusion. Enfin, leur adoption sert la constitution progressive d’un espace procédural [29] nourri de toutes les créations, qui participent de la sorte à l’enrichissement du bien commun.
La préservation de la sphère publique dépend de l’enrichissement continu du bien commun, assuré de la protection structurelle des licences de libre diffusion. Le nombre de documents mis à disposition du public ne garantit plus à lui seul l’extension et la pérennité du bien commun, il faut simultanément favoriser la diversification des processus mis en œuvre pour exploiter ces documents au profit de tous. L’écriture visible du code juridique, qui constitue les licences libres, ancre en partie l’écriture invisible du code numérique dans le réel, assurant que le code source des processus algorithmiques structurant la sphère publique soit lui aussi versé au bien commun.
Conclusion
Nous avons tenté de montrer dans ces pages que la structure de la sphère publique ne dépend plus seulement des processus sociaux et de la régulation juridique mais de plus en plus du code numérique. Les échanges et les circulations qui se trouvent à l’origine de la production du sens et de la culture s’accomplissent désormais dans des lieux que nous avons appelés « espaces procéduraux ». Ces espaces interviennent activement dans la structuration de la sphère publique, affectant tout autant le « comment » du discours que son « quoi ». Cela ne nous semble en soi ni bon, ni mauvais. Mais collectivement, nous ne pouvons accepter la création d’espaces procéduraux que dans la mesure où ils sont évaluables et testables au sein de la sphère publique. En effet, si ces espaces altèrent la nature même de cette sphère, les conditions de production du discours public, désormais hybrides, nécessitent une critique qui pense les deux formes de code, juridique et informatique, comme un tout.
[1] Raymond, Eric S. A Brief History of Hackerdom. 2000. http://www.catb.org/ esr/writings/hacker-history/hacker-history.html.
[2] Rushkoff, Douglas. « Electronica. The True Cyber Culture. » 1999. http://www.rushkoff.com/cgi-bin/columns/display.cgi/electronica.
[3] La Free Software Foundation, qui soutient le GNU Project, se fixe pour mission de « préserver, protéger et promouvoir la liberté d’utiliser, d’étudier, de copier, de modifier et de redistribuer des logiciels ». http://www.gnu.org.
[4] L’Open Source Initiative a été lancée en novembre 1998 par quelques hackers de renom dont Eric S. Raymond et Bruce Perens, l’auteur de l’Open Source Definition http://opensource.org/docs/definition.php.
[5] « L’expression “Logiciel libre” fait référence à la liberté et non pas au prix. Pour comprendre le concept, vous devez penser à la “liberté d’expression”, pas à “l’entrée libre”. » « Qu’est-ce qu’un Logiciel Libre ? » http://www.gnu.org/philosophy/free-sw.fr.html.
[6] Hartley, John. The Politics of Pictures. The Creation of the Public in the Age of Popular Media. New York : Routledge, 1992.
[7] Turing, inventeur d’un calculateur formel et d’un calculateur formel universel équivalents du programme et de l’ordinateur, les définissait ainsi en 1948 : « L’importance de la machine universelle est évidente. Nous n’avons pas besoin d’une infinité de machines pour réaliser une infinité de tâches. Une seule suffira. Le problème d’ingénierie qui consiste à concevoir différentes machines pour différentes tâches est remplacé par le travail de bureau qui consiste à “programmer” la machine universelle pour accomplir ces tâches. » Turing, Alan M. Intelligent Machinery. Rapport du National Physical Laboratory, 1948. http://www.alanturing.net/turing_archive/archive/l/l32/L32-001.html.
[8] Simon, Herbert A. The Architecture of Complexity. In :Simon, Herbert A. The Sciences of the Artificial. Third Edition. Cambridge MA : MIT Press, 1996 pp.183-216
[9] Foucault, Michel. Le souci de soi. Paris : Gallimard, 1984
[10] Debray, Régis. Cours de médiologie générale. Paris : Gallimard Folio, 1991
[11] Habermas, Jürgen. Strukturwandel der Öffentlichkeit. Frankfurt a. Main : Suhrkamp, 1992 [orig. 1962].
[12] Le site Slashdot, News for nerds. Stuff that matters, a débuté son activité en septembre1997, à l’initiative de Robert Malda. http://slashdot.org/.
[13] Pour les règles de fonctionnement de la communauté : http://slashdot.org/faq/com-mod.shtml#cm520. Voir aussi Stalder, Felix et Hirsh, Jesse. Open Source Intelligence. First Monday, vol. 7, n° 6, juin2002. http://www.firstmonday.org/issues/issue7_6/stalder/index.html.
[14] « The age of the public sphere as face-to-face talk is clearly over : the question of democracy henceforth takes into account new forms of electronically mediated discourse. » Poster, Mark. CyberDemocracy. Internet and the Public Sphere. In : Porter, David (éd.). Internet Culture. New York : Routledge, 1996 pp. 201-217
[15] Slashcode est le nom donné au code source du site Slashdot. Il est développé et diffusé dans le cadre d’une licence GNU GPL par le site http://slashcode.com.
[16] Bourdieu, Pierre. Raisons pratiques. Paris : Seuil, 1994
[17] Proposé par l’administration Clinton en 1995, ce texte légal voulait interdire l’usage d’un langage « qui fait offense » dans tout média électronique, y compris le téléphone.
[18] Un bon exemple serait le forum de la plus importante plate-forme planétaire consacrée au cinéma, l’Internet Movie Database http://imdb.com.
[19] Le « ranking » est l’opération par laquelle les algorithmes d’un moteur de recherche classent les sites par ordre de pertinence. Google doit son succès à un algorithme devenu célèbre, PageRank. Page, Larry et al. PageRank, bringing order to the Web. Stanford University, 1999 http://dbpubs.stanford.edu:8090/pub/1999-66.
[20] « Any sufficiently advanced technology is indistinguishable from magic. » Clarke, Arthur C. Profiles of the future. New York : Harper & Row, 1962
[21] Bressand, Albert et Distler, Catherine. Le Prochain monde. Paris : Seuil, 1985 p.177
[22] « Il y a un aspect de l’analyse linguistique de Habermas qui est très particulier : Habermas analyse la parole des gens, non la langue. » Gemie, Sharif. Habermas et l’anarchisme, ou la rationalité du quotidien. Réfractions, n° 1, avril 2000
[23] « C’est en jouant sur la redondance des réseaux, sur le caractère multidimensionnel de R2, que l’on peut contourner un pouvoir de veto, échapper à un domaine réglementaire. » Bressand et Distler, op. cit. p.171
[24] « Under the guise of protecting private property, a series of new laws and regulations are dismantling the very architecture that made the Internet the framework for global innovation. » Lessig, Lawrence. The Internet under Siege. Foreign Policy, novembre 2001
[25] « L’expression “machine mémoire” couvre ici l’ensemble du matériel informatique et des outils logiciels qui permettent de faire fonctionner l’ordinateur. Dans cette machine, il y a une “matière mémoire” sur laquelle on enregistre des données sous forme d’impulsions électroniques. Mais ces données sont illisibles à l’homme. » Souchier, Emmanuël. Quand les mnémotechnologies questionnent notre mémoire. Interdisciplines, février 2003. http://www.interdisciplines.org/defispublicationweb/papers/18/1#_1.
[26] Sur le bien commun, lire en priorité Quéau, Philippe. Du bien commun mondial à l’âge de l’information. Colloque FSF, mars 1999 http://2100.org/conf_queau1.html.
[27] Ces licences de libre diffusion, pensées comme valides juridiquement sur le territoire des États-Unis et progressivement adaptées aux contextes juridiques d’autres pays (voir http://creativecommons.org/worldwide), sont modulaires. Elles autorisent un panaché d’options comme : attribution, copyleft, usage commercial interdit, etc. http://creativecommons.org.
[28] Pour un index de licences de libre diffusion, consulter Bonnet, Renaud et Thévenet, Michaël. Des licences libres à foison. Dernière mise à jour en mai 2005. Voir aussi les licences validées comme « compatibles Open Source » sur le site de l’Open Source Initiative (http://www.opensource.org/licenses/index.php ).
[29] Les promoteurs des Creative Commons encouragent les créateurs à adopter un ensemble de codes informatiques communs (tags HTML, métadonnées, etc.) pour faciliter l’identification et le traitement par des processus algorithmiques des œuvres couvertes par des licences CC.