Aucun algorithme jamais, ne pourra défendre la démocratie.

Un article d’Olivier Ertzscheid, repris de son blog Affordance.info, un site sous licence CC by sa nc

Je republie ici pour archivage (et avec quelques commentaires en fin de billet) la tribune parue le 17 Septembre sur Libération.

Texte également disponible en version anglaise

====================================================================

Aucun algorithme jamais, ne pourra défendre la démocratie.

(Mais n'importe lequel d'entre eux opérant au sein d'architectures techniques toxiques à large échelle est capable de la corrompre.) 

Le 4 septembre 2018, Mark Zuckerberg a publié sur le Washington Post une tribune intitulée "Protéger la démocratie est une course aux armements. Voici comment Facebook peut nous y aider". Dix jours plus tard c'est sur sa plateforme qu'il annonce "se préparer pour les élections" : il liste les risques, les biais, les détournements, les logiques d'influence et de manipulations qui ont déjà mis en danger l'équilibre démocratique et l'organisation de scrutins. Et il annonce, une fois de plus, qu'il va essayer de corriger tout cela. Il n'y parviendra pas. 

Comment avons-nous pu nous retrouver au début du 21ème siècle dans une situation où Mark Zuckerberg - et quelques autres patrons de plateformes numériques - se fixent comme objectif récurrent de "protéger la démocratie", principalement à grands coups "d'algorithmes" et "d'intelligence artificielle" et affirment que cela sera une de leurs principales "missions" au sein de leur entreprise et à l'échelle du monde ? 

En 2011 deux théoriciens de l'intelligence artificielle traitant des problèmes éthiques qu'allaient poser les algorithmes écrivaient que : 

"Les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu'ils restent transparents à l'inspectionprévisibles pour ceux qu'ils gouvernent, et robustes contre toute manipulation." (Bostrom et Yudowski, "The Ethics of Artificial Intelligence")

Aujourd'hui, "les algorithmes" dont nous parlons se déploient au sein d'architectures techniques toxiques englobant des millions ou des milliards d'utilisateurs. 

Aujourd'hui, "les algorithmes" dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques.

Aujourd'hui, "les algorithmes" dont nous parlons sont explicitement développés pour se doter d'un niveau d'autonomie (ou "d'apprentissage") qui rend leur "comportement" et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes.

Aujourd'hui, "les algorithmes" dont nous parlons interagissent en permanence avec d'autres algorithmes, d'autres jeux de données et d'autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d'incertitude.

Voilà pourquoi aujourd'hui pour l'ensemble de ces raisons il est absolument impossible de garantir qu'ils soient transparents à l'inspection, prévisibles pour ceux qu'ils gouvernent et qu'ils soient, surtout, robustes contre toute manipulation. 

Pendant les 10 dernières années, le combat principal d'activistes, de journalistes, de défenseurs des libertés numériques, fut celui visant à limiter l'impact de l'empreinte algorithmique sur nos vies privées et intimes. Ce combat là est terminé, obsolète et, pour l'essentiel, perdu. C'est un autre combat qu'il nous faut aujourd'hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C'est le combat pour limiter l'impact de l'empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif.

Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu'il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l'auditabilité complète et pérenne des processus à l'oeuvre.

Il est urgent et impératif que le développement d'un modèle universel de portabilité de l'ensemble de nos données** soit une priorité des états, et qu'il soit imposé à l'ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quelqu'en soient la nature, le volume et l'usage. 

(** le projet SOLID porté par Tim Berners Lee pourrait en être une première approche)

Il est urgent et impératif que les entreprises qui captent aujourd'hui l'essentiel des données et des flux numériques (en gros les GAFAM, NATU et autres BATX) soient taxées à la hauteur réelle de leur volume d'affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s'arrogent le droit de défier la puissance publique et l'intérêt général dans la levée de l'impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.

Il est urgent et impératif qu'un régime de communs informationnels soit défini positivement dans la loi et qu'il puisse inclure les algorithmes et le code mobilisables dans le cadre de toute action publique. 

Enfin il est urgent, impératif et vital que tout ce qui touche directement au processus démocratique (comme le vote, l'élection, le processus de dépouillement) soit sine die placé hors de portée de toute forme d'assistance, de guidance ou de suppléance algorithmique (à commencer par les "machines à voter"). Le "vote électronique" doit être considéré pour ce qu'il est : une menace rigoureusement et définitivement incompatible avec le respect de la confidentialité du vote et donc de la démocratie. 

L'enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la "désintermédiation" des 20 dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d'être envisagées sereinement.

Hors l'ensemble de ces conditions, nous allons offrir aux générations futures un monde dans lequel le principal problème ne sera pas que Mark Zuckerberg et quelques autres patrons d'industrie se piquent d'être les gardiens protecteurs de nos démocraties mais qu'ils soient effectivement les seuls encore en position de l'être, tout en n'ayant eux-mêmes qu'une idée très vague et très approximative de la manière de s'y prendre et des chances d'y parvenir. 

Il ne s'agit pas simplement de Fake News et de libre arbitre. Il ne s'agit pas simplement de la liberté de l'information ou de la liberté de la presse. Il ne s'agit pas simplement d'algorithmes, de plateformes, d'états et de nations. Il ne s'agit pas simplement d'intelligences humaines et d'autres "artificielles". Il s'agit de la liberté des peuples. Il s'agit de la liberté tout court. 

=============================================

A la suite de cette tribune, quelques amis ou personnes dont j'apprécie le travail m'ont fait deux "reproches".

Le premier est celui de continuer de "croire" au catéchisme de Mark Zuckerberg. En effet ce n'est pas parce que Mark Zuckerberg annonce qu'il va protéger la démocratie qu'il est réellement en situation de pouvoir le faire. Tout au plus se met-il en situation et en scène pour que nous lui accordions la capacité de le faire, ou "pour nous faire croire que". Admettons. Mais le fait est que je crois sincèrement que la vitalité d'une démocratie se construit (et peut donc se déconstruire) essentiellement au travers de la pluralité d'un espace médiatique de circulation et de fabrique des idées (et conséquemment de l'opinion et du rapport à la vérité ou aux "régimes de vérité") et d'un espace social interpersonnel. Or indépendamment de l'ego jupitérien de Zuckerberg (et de la plupart des autres grands patrons de la Silicon Valley) s'il est aujourd'hui un écosystème capable de contrôler et d'arbitrer simultanément les deux espaces précités, il me semble que c'est bien Facebook. Mais comme précisé dans le sous-titre que j'ai ici rajouté à ma tribune initiale et conformément à l'idée que je développe sur ce blog dans de nombreux billets, ce ne sont pas tant "les algorithmes" qui constituent le danger mais les architectures techniques toxiques dans lesquels ils opèrent. 

La seconde critique concerne la partie de la tribune sur le combat "perdu" de la protection de notre vie privée. J'assume. Mais là encore le format "tribune" oblige à y aller un peu à la hache et de manière parfois provocante. Mais j'assume quand même. Ceux qui me lisent savent que sur le sujet de la vie privée et des données personnelles je partage à 200% l'analyse d'Antonio Casilli selon laquelle la vie privée est désormais avant tout une affaire de négociation collective (avec les grandes plateformes). Mais quand j'indique que ce combat est pour l'essentiel perdu et obsolète je le fais de la même manière que Yochai Benkler sur le droit d'auteur quand il indique : 

"Il y a 15 ans, on avait l'impression que les batailles autour du droit d'auteur étaient les plus importantes. Elles continuent à l'être : c'est essentiel de permettre aux individus d'être créatifs, de permettre aux communautés de toucher, de sentir, et de participer à l'élaboration du contexte culturel dans lequel elles évoluent. Mais aujourd'hui, la démocratie fait face à une menace tellement profonde qu'il est difficile de maintenir la même attention au sujet des droits d'auteur à l'ère numérique. Il y a 15 ans, on pouvait imaginer que la menace provenait d'Hollywood, et de la manière dont l'industrie du cinéma pouvait contrôler l'environnement culturel. Aujourd'hui, Facebook et Google accumulent tellement de données sur nous et peuvent effectuer tellement d'expériences sur les individus que le débat autour de la vie privée et du marketing comportemental me semble immensément plus urgent.

Donc en gros là où Benkler explique que l'urgence du débat sur la vie privée et le marketing comportemental prime absolument sur le combat pour le droit d'auteur, j'essaie d'expliquer, certes abruptement et donc maladroitement, que l'urgence du débat sur les architectures techniques toxiques et la transparence algorithmique prime absolument sur le combat pour le droit à la vie privée. Bref pour moi : 

La question des architectures techniques toxiques et de la transparence algorithmique > droit à la vie privée et marketing comportemental > droit d'auteur et financement de la création 

Ceci étant posé, à l'évidence et naturellement les 3 combats restent essentiels et surtout bien sûr étroitement liés (pour les deux premiers au moins).

Lionel Maurel notamment (dont j'admire profondément le travail, et encore c'est un doux euphémisme que de le dire comme ça), Lionel Maurel donc me faisait remarquer sur Twitter que :

"OK, mais l'ouverture de l'algo de FB n'aurait pas empêché par exemple le scandale Cambridge Analytica, qui s'ancre bien dans l'usage illicite des données. Ces problèmes sont indissociables. Perdre sur un tableau, c'est perdre sur l'autre."

Oui. Perdre sur un tableau c'est perdre sur l'autre. Mais - à mon avis en tout cas - on ne gagnera pas le combat contre les architectures techniques toxiques en attaquant par celui pour la défense de la vie privée. Alors que l'inverse me semble encore possible : on peut gagner le combat pour la défense de la vie privée en attaquant par celui contre les architectures techniques toxiques. Enfin en gros. Et pour rebondir sur l'argument de Lionel et rester sur l'exemple de Cambride Analytica je citerai Cory Doctorow : 

"le problème de Facebook n'est pas un problème de contrôle des esprits mais un problème de corruption : Cambridge Analytica n'a pas convaincu des gens ordinaires de devenir racistes mais ils ont convaincu des racistes d'aller voter"

Bien sûr que sans captation indue de données personnelles, rien de tout cela n'aurait été possible et donc bien sûr que perdre sur un tableau c'est perdre sur l'autre. Mais le problème de "corruption" qu'identifie Cory Doctorow me semble relever en priorité de l'architecture technique toxique qui a valeur de "politique". En d'autres termes, la maîtrise de la collecte des données peut permettre une forme de "contrôle des esprits" (enfin en tout cas de l'opinion), mais la corruption est celle de la gouvernance liée à l'architecture technique toxique. 

Et pour le reste, de toute façon une tribune est faite pour susciter le débat. Donc merci aux débatteurs :-)

Via un article de olivierertzscheid, publié le 22 novembre 2018

©© a-brest, article sous licence creative common info