"J'aime quand un plan se déroule sans accroc". Mark Zuckerberg en cour d'appel.

Un article d’Olivier Ertzscheid, repris de son blog Affordance.info, un site sous licence CC by sa nc

Mark Zuckerberg vient de nous écrire de nouveau. Et il a un plan.

Cn7c1g

Après sa lettre inaugurale de Mars 2017, après nous avoir annoncé en Septembre 2018 de quelle manière Facebook "se préparait pour les élections" (ou plus exactement comment Facebook se préparait pour ne pas pourrir, influencer ou truquer les élections ...), il nous écrit donc en ce 15 Novembre 2018 pour nous proposer "un plan de gestion des contenus et ses modalités de mise en oeuvre" ("A Blueprint for Content Governance and Enforcement") 

Plus j’observe et plus j’essaie d’analyser et de comprendre ce qui se joue à l’échelle de Facebook et très sincèrement ... moins j’y comprends quelque chose. 

Donc revenons aux basiques. Il n’y a pas 36 manières de gérer et d’administrer une communauté "virtuelle" de plus de 2,5 milliards de membres "réels" à l’échelle d’une planète qui compte en gros 3,5 milliards d’internautes pour en gros 7,5 milliards d’habitants. 

Il y en a 9.

Soit on fait ça en mode Civilization ou Age Of Empires mais alors ça s’appelle un jeu vidéo. C’était l’option 1.

Soit on décide qu’il n’y a que le chef / PDG / CEO qui décide de tout mais alors ça s’appelle une dictature. C’était l’option 2.

Soit on fait confiance à la capacité de 2,5 milliards de personnes de s’auto-organiser en se respectant mutuellement indépendamment de leurs cultures, de leurs religions, de leurs opinions politiques ou de leur goût pour la pizza à l’ananas mais alors il n’est pas improbable que ça finisse rapidement en grosse soupe de phalange planétaire. C’était l’option 3.

Soit on confie la gestion du bouzin à des algorithmes et à des intelligences artificielles et le truc part en sucette au bout de 10 minutes tellement lesdits algorithmes et intelligences artificielles sont débiles (à l’échelle du mode de raisonnement que l’on aimerait les voir appliquer genre "Oh une photo de petite fille qui court toute nue dont on voit le sexe", "Oh ben non attend c’est la photo qui a gagné le prix pulitzer et c’était pendant la guerre du Vietnam", "Ben oui mais quand même c’est une petite fille toute nue et on voit son sexe", "bon ben d’accord on bloque"). C’était l’option 4.

Soit on colle un salarié derrière chaque utilisateur pour surveiller et éventuellement corriger ce qu’il raconte. C’était l’option 5. (et ça ressemble aussi un peu à une dictature)

Soit on se dit que bon ben si on y colle un peu plus d’intelligence artificielle et un peu plus de modérateurs aux Philippines hé bé ça va le faire. Et là ben en fait ça ne le fait pas mais alors pas du tout. Et si vous pensez que "oh ben si, ça le fait quand même" ben alors allez regarder "The Cleaners"C’était l’option 6.

Soit on vire définitivement de la plateforme les gens qui ne respectent pas la loi, ou alors on leur colle des amendes. Ce serait à la fois très efficace et très rigolo. Mais du coup c’est pas très #StartUpNation ni #Silicon_Valley_Powaaaaa et on va faire fuir les annonceurs et les actionnaires et peut-être aussi un peu les utilisateurs. C’était l’option 7

Soit on démembre la multinationale façon puzzle et on nationalise ce qui reste. J’avoue que j’aime assez l’idée. Et que je ne suis ni le seulni le plus célèbre :-) C’était l’option 8.

Soit on change de modèle économique et on fait payer les gens. C’était l’option 9.

Et pis c’est tout. 9 options. Pas une de plus.

Pour l’instant et depuis la création de sa plateforme, Mark Zuckerberg se contente d’explorer l’option 6. Je rappelle le principe de l’option 6. Elle comporte deux volets.

Volet 1. Aux Philippines donc, des gens payés correctement sur l’échelle des salaires Philippins (donc des gens payés au prix coûtant de la misère) modèrent chaque jour jusqu’à 25 000 images mêlant pédo-pornographie, torture animale, décapitations et actes de barbarie divers et n’ont droit qu’à 3 erreurs par mois s’ils ne veulent pas se faire virer. Heureusement parce que les lois du marché dérégulé sont bien faites le Happyness Business Manager de la boîte leur permet de se spécialiser. Par exemple tu peux choisir on peut te coller uniquement les viols d’enfants ou la torture animale. Comme ça tes journées sont plus cohérentes hein. Pis t’as moins de chances de te tromper hein. Non non, ceci n’est pas une blague.

Volet 2. Pendant ce temps, des algos et des intelligences artificielles modèrent aussi d’autres trucs mais on ne sait pas trop bien quoi. A priori lesdits algos sont aussi en charge de constituer les gros paquets thématiques (paquet thématique "viols d’enfants", paquet thématique "décapitation au couteau de cuisine") qui sont ensuite soumis aux modérateurs humains. Astuce et espièglerie : les algos eux, peuvent se tromper et c’est pas grave puisqu’ils ne risquent pas d’être virés. Non vraiment la vie est bien faite.

Résultat : un tableau de Courbet est toujours réduit à une foufoune en gros plan, une photo qui a gagné le Pulitzer est toujours considérée comme provenant d’un forum pédophile, et le micro-pénis de Donald Trump ne passe pas non plus les filtres quand il est peint par une artiste. Ni les filtres humains ni les filtres algorithmiques. Parce que si l’on ne comprend pas cela on n’a rien compris à la nature de la modération sur Facebook : les algos, l’intelligence artificielle et les règles strictes imposées aux modérateurs sous-traitant aux Philippines sont les putains de même règles débiles. Une foufoune en gros plan est une foufoune en gros plan, qu’elle soit peinte par Courbet au 19ème siècle ou photographiée par Emile Louis au 20ème.  

Alors le résultat de tout ce que nous raconte le père Mark Zuckerberg depuis que sa plateforme sert à autre chose qu’à demander des nouvelles de mamie ou à surveiller les fréquentations de sa marmaille, le résultat c’est que : 

Et on pourrait continuer la liste pendant des heures. Ainsi à peine sorti du scandale qui avait révélé que sa régie publicitaire permettait de "cibler" les gens qui "détestent les juifs", ou qui "détestent les nègres" (sic), et après avoir promis d’y mettre bon ordre (c’était il y a plus d’un an, en Septembre 2017), Facebook se fait gauler en train de permettre via sa régie publicitaire de cibler des gens qui croient au "génocide blanc". Tant qu’il y aura de la haine, il y aura des gens pour n’y voir qu’un marché.

Voilà hein. Ajoutez ça au dernières nouvelles du Facebookenstein qui n’étaient déjà pas très reluisantes, et convenez qu’à ce niveau-là de Karma on est entre l’ours polaire à qui on annonce qu’on va quand même lui installer la clim, "juste au cas où", et la youtubeuse fitness qui teste un nouveau siphon à Chantilly.

Le camarade Tristan Nitot parle de "naufrage moral", ce qui me semble assez approprié et relève presque de l’euphémisme.

Mais tout ça Mark il s’en fout. Il s’en fout parce que ...

Il est libre Max Mark.

Et puis surtout ...

Il.

A.

Un.

Plan.

"Un plan de gestion des contenus et ses modalités de mise en oeuvre." Puisqu’on vous le dit. 

J’ai attentivement lu son putain de plan. Dedans il y a une bonne idée. Une seule. Publier tous les trois mois un rapport sur les contenus qui ont été écartés du site (en même temps que les résultats trimestriels). Voilà. J’attends impatiemment la première livraison. Je pense qu’on va bien rigoler. Et qu’il n’est pas sûr qu’il y ait une deuxième livraison. Mais bon ne chipotons pas, une goutte de transparence dans un océan d’opacité reste une bonne chose. 

Parce que pour le reste, le plan de Mark consiste à reprendre le plan annoncé il y a un an qui reprenait lui-même le plan annoncé l’année précédente. Les grandes lignes de ces plans étant invariablement les suivantes : 

  • Admettre à demi-mot qu’on a bien bien bien merdé mais que bon quand même hein vous savez on n’a pas un métier facile.
  • Promettre qu’on va donner moins d’exposition aux contenus "sensationnalistes". Promis juré craché. 
  • Dire qu’on va mieux régler les algorithmes.
  • Expliquer qu’on va mettre toujours plus d’intelligence artificielle toujours plus intelligente mais si puisqu’on vous dit qu’elle est toujours plus intelligente. 

Et c’est tout ? Oui. C’est tout. 

Ah ben non vous avez raison, cette année y’a une nouveauté. 

Murdock1

 Facebook va créer ... une cour d’appel. Oui oui.

Une cour d’appel.

Sans déconner. 

"As I’ve thought about these content issues, I’ve increasingly come to believe that Facebook should not make so many important decisions about free expression and safety on our own.

In the next year, we’re planning to create a new way for people to appeal content decisions to an independent body, whose decisions would be transparent and binding. The purpose of this body would be to uphold the principle of giving people a voice while also recognizing the reality of keeping people safe.

I believe independence is important for a few reasons. First, it will prevent the concentration of too much decision-making within our teams. Second, it will create accountability and oversight. Third, it will provide assurance that these decisions are made in the best interests of our community and not for commercial reasons."
Alors non, on ne sait rien de plus. Le gars il réfléchit pour savoir qui mettre dedans et tout. Il nous tiendra au courant bien sûr. 
 
Mais l’essentiel est fait puisque déjà bon ben c’est annoncé et que surtout le gars il a compris un truc important : avec plus de 2,5 milliards d’utilisateurs, peut-être ("I’ve increasingly come to believe") qu’il ne devrait pas être le seul à prendre les décisions importantes concernant la liberté d’expression de deux milliards et demi de pignoufs comme vous et moi. C’est. Un. Putain. De. Génie. 
"Je suis arrivé à la conclusion que nous ne devrions pas prendre tout seuls autant de décisions sur le thème de la liberté d’expression ou de la sécurité." (Traduction Le Monde) 
Il lui aura fallu deux enfants, des scandales politiques, l’élection de Trump, des actions d’ingérence russe, un génocide en Birmanie, les caricatures du prophète à la Une de Charlie Hebdo invisibles en Turquie pour ne pas perdre le marché Turc, du ciblage publicitaire à destination d’annonceurs pour atteindre ces merveilleux clients que sont ceux qui veulent brûler des juifs ou buter des nègres, mais là c’est bon il a compris. Le 15 Novembre 2018, à 34 ans et 14 ans après avoir créé sa boîte, il a compris et il nous écrit pour nous dire qu’il ne devrait pas être le seul à prendre les décisions importantes concernant la liberté d’expression (et la sécurité) de deux milliards et demi de pignoufs comme vous et moi. 
"As I’ve thought about these content issues, I’ve increasingly come to believe that Facebook should not make so many important decisions about free expression and safety on our own."
Mais oui Mark, c’est bien. On progresse. Bon maintenant on va aborder la question de la représentation de la nudité dans l’art pictural. Et puis après on ira dessiner des foufounes pour se détendre. 
 
Tiens j’en profite parce que c’est aussi un peu le sujet, l’autre jour je vous parlais de la différence entre un espace public et une plateforme privée. Allez y jeter un oeil si vous voulez et revenez ici juste après.
 
Non vraiment il est fort y’a pas à dire. Donc il va - peut-être - créer une cour d’appel.
 
"une juridiction de droit commun du second degré. Elle examine un litige déjà jugé, par exemple par un tribunal correctionnel ou un tribunal de grande instance. Lorsqu’une des parties n’est pas satisfaite du jugement, elle « interjette appel » (et non pas « fait appel »). Alors que les juridictions de première instance rendent un « jugement », une cour d’appel rend un « arrêt », qui peut confirmer ou annuler le jugement initial. Après un arrêt de la cour d’appel, il est possible d’exercer un pourvoi en cassation. S’il est recevable, l’affaire n’est pas jugée une troisième fois mais il est vérifié que les règles du droit ont bien été appliquées.
Donc Tribunal correctionnel ou de grande instance, puis si t’es pas content, cour d’appel, puis si t’es toujours pas content pourvoi en cassation. 
 
"Les cours d’appel fédérales des États-Unis (United States Courts of Appeals) sont les juridictions d’appel du système judiciaire fédéral américain. Elles connaissent de ce fait de tous les litiges jugés en première instance par les 94 cours de district qui dépendent de leurs juridictions, ainsi que ceux émanant des différentes grandes commissions administratives. Il s’agit de l’avant-dernier niveau du système judiciaire fédéral, avant la Cour suprême des États-Unis."
Donc tribunaux fédéraux de première instance (district), puis si t’es pas content cour d’appel, et pis si t’es toujours pas content Cour Suprême. 
 
Voilà. Donc avec les cour d’appel existantes on pourrait être dans l’option 7 décrite au début de ce billet. Pour autant que Facebook soit un espace public soumis aux lois dudit espace public. Ce qu’il n’est pas. Il n’est ni un espace public, ni soumis aux lois, à commencer par les lois fiscales. 
 
Du coup, c’est - presque - cohérent, il veut créer sa propre cour d’appel. Pour son propre espace semi-public semi-privé de 2,5 milliards de vrais gens. Et il réfléchit parce que bon c’est compliqué et bon il ne sait pas trop qui il va mettre dedans, ni pour combien de temps, ni avec quelles attributions. Bref m’est avis qu’il nous enfume autant que Snoop Dogg pendant une soirée weedjama (une soirée weedjama c’est comme une soirée pyjama mais avec de la weed). 

Voilà.

Une cour d’appel, un comité des sages, et mon cul sur la commode.

Alors vous me dites : mais du coup cette cour d’appel, est-ce que quand même ça ne pourrait pas marcher ? Après tout faut essayer non ? Et là moi je vous dis : "Non".

Deux milliards et demi d’individus. Des médias (chaînes de télé, journaux papier, etc). Et la volumétrie d’interactions, d’échanges, de partages et de rediffusion qui vont avec tout ça. Et une cour d’appel. Ça. Ne. Marchera. Jamais. JA. MAIS. 

Si vous n’êtes pas convaincu(e)s, souvenez-vous du projet de Google qui, en 2014, avait annoncé la création d’un "comité des sages" supposé trancher pour des cas particuliers (et des cas "de particuliers") entre ce qui relevait du "droit à l’oubli" et ce qui relevait de la liberté d’information. Figurez-vous que le concept n’a pas marché. Etonnant non ? Ben non.

La "cour d’appel pour contenus controversés" est promise au même avenir radieux que le "comité des sages pour le droit à l’oubli". Et à la même inefficacité.

Et là vous me dites : 

Ben alors faut faire quoi ?

Fute

Rien. Il ne faut rien faire. En l’état rien ne permettra de limiter significativement le potentiel de nuisance de Facebook et de son architecture technique toxique. Rien parce qu’aucun algorithme jamais ne pourra défendre la démocratie. Rien parce le principal problème de Facebook est extraordinairement simple : il vient essentiellement de son modèle économique et on ne change pas un modèle économique qui rapporte, si toxique et destructeur soit-il.

Donc comme Facebook ne changera pas de modèle économique, comme Facebook continuera de déployer son architecture technique toxique sur des pans de plus en plus essentiels de nos vies et de nos démocraties, comme aucune intelligence artificielle ne permettra jamais de solutionner le problème de l’insondable bêtise de nos comportements grégaires dans des contextes particuliers de communication (numérique ou non), il faut, oui j’en suis convaincu, nationaliser Facebook. Ou le démanteler. Ce qui revient au même.

C’est important et c’est urgent.

Parce qu’il est important et urgent que l’essentiel de ces interactions numériques, de nos interactions numériques, reviennent dans l’espace public. Qu’elles y soient re-situées pour pouvoir mieux y être restituées. Et que s’y appliquent, aussi simplement qu’essentiellement et exclusivement, les seules lois régulant l’espace public de la démocratie. 

Tout le reste, c’est de la comm. et des "Relations Publiques". Compris ?

Bosco
 

Via un article de olivierertzscheid, publié le 17 décembre 2018

©© a-brest, article sous licence creative commons by-nc-sa