Wikipédia : les outils de la confiance

Reprise d’un article publié par Internet actu
Dans : Confiance et sécurité, Archivage/stockage, Services et applications, Opinions - Par Hubert Guillaud le 24/09/2007

(magazine en ligne sous licence Creative Commons)

Alors que Wikipédia n’a cessé de croître en volume (l’encyclopédie vient de fêter son 2 millionième article dans la version anglaise, 555 000 dans la version française) comme en réputation depuis son lancement en 2001, l’information qui en émane continue d’être traitée avec suspicion.

Ces dernières années, une série de mesures a eu pour but de renforcer la confiance dans ce qui reste l’un des plus étonnants - et symboliques - outils collaboratif qui soit, explique le NewScientist, et cet effort va continuer. Le mois dernier, plusieurs outils indépendants de Wikipedia ont vu le jour comme WikiScanner (qui permet d’analyser la provenance de certaines adresses IP utilisées pour corriger une entrée et notamment d’identifier si ces corrections proviennent de grandes organisations, qui pourraient vouloir “arranger” l’information dans un sens qui leur convienne) ; Wikirage (qui permet de connaître quels articles ont été les plus modifiés et donc de distinguer les articles sensibles des articles qui le sont moins, la version française) ; WikiMindMap (un moteur de recherche heuristique qui permet de mettre à jour les cartes conceptuelles de l’encyclopédie, c’est-à-dire les connexions sémantiques existantes entre les articles)…

Mais il n’y a pas que l’harnachement de l’encyclopédie par des outils qui permette de mieux surveiller son état. Le fondateur de Wikipedia, Jimmy Wales, a annoncé une nouvelle politique d’édition sur la version allemande. Selon le NewScientist, cette nouvelle politique, qui devrait être mise en place dès septembre 2007, consiste à ne rendre visibles instantanément que les corrections faites par des utilisateurs “de confiance”. Pour gagner ce statut de confiance, les utilisateurs devront montrer patte blanche en produisant au moins 30 corrections en 30 jours. Les utilisateurs néophytes devront attendre la validation d’un éditeur de confiance pour que leurs corrections soient prises en compte. Le risque est certes qu’ils se montrent découragés de participer quand ils n’auront plus la gratification de voir leurs corrections immédiatement prises en compte, mais la diminution du “vandalisme” - qui est un effet pervers mesuré mais très visible - est certainement à ce prix. Ce système risque aussi d’accroître le travail des éditeurs de confiance qui se lasseront peut-être de contrôler les corrections a priori, après l’avoir longtemps pratiqué à posteriori.

Pour autant, toutes les versions de Wikipedia ne prendront pas cette route. L’édition anglaise, plus égalitaire, distribuera elle une page supplémentaire pour chaque entrée, certifiée sans vandalisme. Les lecteurs pourraient également accéder à un lien vers une version figée d’un article, labellisé à un moment donné pour ses qualités.

Plus intéressant encore : la mise à niveau de Wikipédia permettra d’attribuer automatiquement des estimations sur la confiance dans un article. Cela sera possible grâce à un ajout logiciel développé par Luca de Alfaro de l’université de Californie à Santa Cruz. Le système assigne à chaque contributeur un indice de confiance basé sur l’historique de leurs interventions. Ceux dont les contributions sont peu altérées obtiennent un bon indice, ceux dont les contributions sont rapidement remaniées un moins bon. Les nouveaux utilisateurs commencent avec un taux bas, mais c’est pour leur permettre de mieux progresser. Autre avantage, le logiciel indique d’une couleur différente les corrections apportées par les contributeurs ayant un faible indicateur de confiance et permettant de mieux repérer leurs changements et donc de mieux surveiller leurs contributions.

“Ce qui est intéressant dans cet indice de confiance”, résume Olivier Ertzscheid, “c’est qu’il ne repose pas sur la qualité intrinsèque de ce qui est écrit (laquelle est statistiquement ou algorithmiquement invérifiable), mais sur l’interrogation de la densité de la dimension palimpsestique de Wikipédia. Je m’explique : plus une écriture est vite recouverte par une autre, et moins elle est fiable. En d’autres termes encore, une non-expertise chasse l’autre, et au final (le ratio d’utilisateurs/nombre de modifications étant statistiquement parlant) l’indice de confiance mesuré semble donner des résultats probants.”

En appuyant son développement sur une batterie d’outils de surveillance et d’analyse, Wikipédia se transforme sous nos yeux. Comme le dit encore très bien Olivier Ertzscheid : “L’anti-corpus (un corpus étant par essence ce qui est donné comme fixé, comme stable), qui par ceux-là même qui le bâtissent, se trouve ainsi doté d’un appareillage, d’une artefacture technique qui donne à l’anti-corpus documentaire les moyens de transformer son éternel inachèvement en une dynamique documentaire inédite.”

Au-delà de son caractère inédit, ce qui est intéressant dans cet exemple, c’est de comprendre la double piste que les animateurs de l’encyclopédie ont choisie pour restaurer la confiance. D’une part en augmentant le pouvoir de leurs meilleurs utilisateurs, qui vont pouvoir se distinguer de la masse en validant et labellisant certains contenus. Et surtout, en dotant l’encyclopédie d’outils qui permettent de rendre son fonctionnement toujours plus transparent. Des outils qui permettent d’observer le fonctionnement des mécanismes internes d’édition et de régulation : un monitoring du monitoring en quelque sorte.

Il y a incontestablement dans ces deux pistes de développement, une vraie définition des enjeux de la confiance à l’heure du web 2.0.

Hubert Guillaud

PS : Pour en savoir plus sur Wikipédia et ses nouveaux développements, le mieux est certainement de se rendre au colloque que Wikimedia organise sur son propre objet, les 18 et 19 octobre prochains à la Cité des Sciences à Paris.

Posté le 30 septembre 2007

©© a-brest, article sous licence creative common info