Forces et faiblesses de l’approche collaborative : l’exemple de Wikipédia

Ce nouveau texte du groupe Intelligence Collective de la Fing se penche sur la production des collectifs. Il cherche à distinguer les points forts et les points plus faibles par rapport à une approche plus classique où un texte est produit par un expert (avec éventuellement une relecture collective mais une décision finale individuelle). L’analyse a porté sur les articles rédigés collectivement dans l’encyclopédie Wikipédia, mais il serait intéressant d’aller plus loin en étudiant la production de plusieurs collectifs.

L’hypothèse qui ressort de ce travail va dans le sens d’autres études similaires. Un texte produit collectivement pourrait être évalué de manière automatique en terme de maturité et de convergence, donnant ainsi une indication au lecteur des cas où se dégagent de l’intelligence collective (le tout est plus que la somme des parties), par rapport à une production d’experts individuels. Pour tester cette hypothèse, elle sera soumise au projet Autograph dans lequel la Fing s’est associé à plusieurs laboratoires afin de développer des outils de visualisation pour aider à la gouvernance des grands collectifs à base coopérative sur Internet.

Reprise d’un article publié par Internet actu
Dans : Usages, Coopération, Tribune - Par arnaudklein le 27/06/2006

(magazine en ligne sous licence Creative Commons)

Les forces de l’approche collaborative

Le nombre de contributeurs et les règles entre eux

Une des différences principales entre les deux formes repose dans l’approche par l’expertise pour les encyclopédies traditionnelles et par le nombre et la complexité pour l’encyclopédie Wikipédia.

Selon James Surowiecki
 [1]
, la moyenne des points de vue d’une masse importante de personnes - quelles que soient leurs compétences - est une information nettement plus pertinente que celle du meilleur des experts. Mais au-delà du simple nombre, c’est la conjonction entre le nombre (qui permet aux mécanismes d’auto-organisation de se développer) et les règles qui sont appliquées entre les membres du groupe, qui feront que le groupe pourra prendre en compte plus de facettes d’un problème complexe qu’une seule personne... ou au contraire s’aligner sur le moins disant. Les interactions expert / masse permettent surtout de pousser beaucoup plus loin les points de vue de chacun, tout en disposant des connaissances et de l’expérience nécessaire pour traiter le problème dans de bonnes conditions.

Mais pour cela il faut que le mécanisme d’extraction des points de vues d’une masse importante de personne ne soit pas biaisé et offre quelques-unes des garanties suivantes :

  • Apporter des regards neufs sur les questions même anciennes

Il s’agit d’un point important car sinon on reste figé sur une seule vision sans faire “avancer le savoir”. C’est tout l’intérêt de ceux que l’on a appelé ici les “cavaliers seuls” qui partent sur de nouvelles solutions et ouvrent les possibles. Le fait de ne pas trancher dans tous les cas litigieux (ce qui n’est tout de même pas la majorité des articles mais sûrement ceux où il est le plus nécessaire de regarder de près...), mais au contraire de donner les éléments sur les thèses en présence, part d’un présupposé qui n’existait pas à l’époque de Diderot : “Le rêve de l’encyclopédie absolue n’est pas atteignable”.

  • Une gestion fine et claire du conflit d’intérêt

Pour surmonter les conflits d’intérêts, l’approche collaborative permet de cumuler les avis et même de faire cohabiter les divergences qui sont aussi des éléments de l’Histoire (voir l’exemple de l’article secte dans Wikipédia). Cela n’est valable que pour les articles qui ne sont pas le fait d’un petit groupe fermé de contributeurs mais qui, au contraire, ont été revus par un grand nombre de personnes. C’est le cas pour des articles perçus comme sensibles où les relecteurs sont nombreux. Cela peut poser plus de problèmes pour des articles très pointus sur lesquels il y a peu de spécialistes et dont seulement un ou quelques spécialistes, d’accord entre eux, se sont intéressés à l’article. La solution repose sur l’évaluation du conflit d’intérêt, peut être en faisant ressortir un indicateur qui montrerait si il y a eu débat ou non lors de la rédaction de l’article ?

On voit en pratique une distinction entre :

  • Les articles sur lesquels l’approche de chacun est convergente, dont les corrections proposées sont clairement considérées comme corrigeant une erreur et ne prête donc pas à discussion. Dans ce cas, le nombre simple permet de corriger un certain nombre d’erreurs objectives.
  • Pour les articles où il peut y avoir divergence de vues (par exemple sur les sectes ou, aux Etats-Unis, sur l’évolutionnisme), alors les approches des deux encyclopédies sont radicalement différentes. Dans le cas de l’encyclopédie traditionnelle, l’affirmation n’est pas donnée par le “meilleur des experts” (chose impossible à savoir tant que l’information n’est pas devenue incontestable) mais par les “experts reconnus” (ce qui veut dire que si l’encyclopédie avait existé au XVIe siècle alors il n’y serait donné que la thèse officielle : “le Soleil tourne autour de la Terre”). Pour Wikipédia, au contraire, dans ce cas, lorsque les avis sont irréconciliables (comme c’est le cas pour la définition de ce qu’est une secte), on y trouve les différentes approches (avec la possibilité de savoir le plus souvent qui affirme quoi). Il est ainsi possible pour le lecteur : soit de décider que c’est la thèse “officielle” qui est la bonne, soit d’accepter l’incertitude et d’avoir une idée des thèses qui s’affrontent. Ces deux exemples (la Terre au XVIe siècle et la controverse entre créationnisme et évolutionnisme) sont pertinents car ils montrent deux cas extrêmes : le cas où la thèse officielle est infirmée par la suite (entre autre par Galilée qui n’aurait peut-être pas été choisi comme contributeur d’une encyclopédie s’il y en avait eu une à l’époque) ; et le cas ou la thèse alternative est plus que probablement biaisée par des enjeux religieux (dans le cas du créationnisme).

Nous pouvons donc considérer deux aspects où :

  • dans un cas non litigieux, on s’achemine vers un article de plus en plus juste (même si des premiers articles peuvent comprendre des erreurs comme c’est le cas dans toute encyclopédie) à condition que le nombre de lecteurs/contributeurs sur un article soit suffisamment grand ;
  • dans l’autre cas, le traitement des articles litigieux ne part pas du principe qu’il existe une vérité absolue mais plutôt de plusieurs avis qui, à ce stade, peuvent être considérés comme plus ou moins probables (sans que cette probabilité soit complètement mesurable dès que l’on introduit dans l’article des éléments subjectifs, des conflits d’intérêt, etc.)

Les faiblesses de l’approche collaborative

L’approche collaborative ne converge pas toujours vers l’objectif attendu, on peut parfois converger vers une mauvaise solution (en cas de conflit par exemple).

On peut chercher à décrire un mécanisme de “réparation spontanée” qui permet :

  • de faire converger de façon itérative vers des solutions toujours meilleures ;
  • de “réparer” les articles qui ont fait l’objet de contributions dégradant leur qualité (vandalisme, prosélytisme, suppression des visions alternatives).

La réparation spontanée ne peut exister et être fiable que si les lecteurs ont la volonté et la motivation de “lire d’un oeil critique”, c’est-à-dire avec une culture du doute. Pour éviter le vandalisme et les faux articles et rumeurs, la confiance réciproque est primordiale. Une confiance qui fonde cette entreprise collective sur un contrôle a posteriori, et donc sur la confiance a priori.

Comment faire pour que la meilleure solution émerge ?

Quelques propositions pour améliorer le processus coopératif

  • 1. Limiter le vandalisme anonyme

En mettant en place un système de signature dans la partie discussion de la page pour contrer l’anonymat des informations.

  • 2. Donner une indication sur la qualité des articles

a) Créer une évaluation par les lecteurs, permettant de savoir si beaucoup de personnes ont lu, accepté ou rejeté les différents articles.

b) Créer un “score du processus de débat coopératif” en décomposant les informations disponibles en ligne en fonction du type d’article :

  • Articles avec peu de contributeurs : danger d’erreur car pas de garantie de l’expertise individuelle ou danger de prosélytisme ;
  • Articles avec beaucoup de contributeurs et convergeant vers un résultat unique (probablement de meilleure qualité) ;
  • Articles avec beaucoup de contributeurs mais ne convergeant pas (ex. les sectes) : ceux-ci ont un traitement très différent des articles des encyclopédies classiques ;
  • Articles vandalisés ou sujet à de nombreuses dégradations.

c) Proposer des versions “validées” selon le modèle de fonctionnement des logiciels libres, une version en développement et des “release” stables.

  • 3. Intervention des experts dans la validation

Le rôle de l’expert dans ce cas change. Il est là pour valider :

  • Qu’il n’y a pas d’erreur apparente dans l’article (cf. l’approche de validation dans l’article de Nature)
  • Que le processus coopératif a bien été suivi et qu’il y a donc eu la possibilité pour des avis contradictoires de s’exprimer.

Par contre, en cas de non validation, les experts ne pourraient pas proposer un article alternatif qu’ils auto-valideraient mais seulement un commentaire en remettant l’article à la discussion.

Document préparé par le groupe Intelligence Collective de la Fing à partir des contributions de Olivier Auber, Antoine Christen, Jean-Michel Cornu, Jérôme Delaunay, Yves Duron, Yann Forget, Aurelien Gaucherand, Hubert Guillaud, Daniel Kaplan, Atakan Karakis, Arnaud Klein, Fabien Lair, Yann Le Guennec, Pierre Levy, Bernard Prieur-Smeter, Marc Siramy, Rémi Stranx. Rapporteurs : Arnaud Klein et Jean-Michel Cornu.

Cet article a été originellement publié sur le site du groupe intelligence collective : http://ic.fing.org/news/24.shtml


Voir aussi le dossier Wikipédia de la Cellule Veille Scientifique et Technique de l’Institut National de Recherche Pédagogique.
Réactions

[11 : “According to James Surowiecki, the author of the book ‘The wisdom of crowds’, this approach works best if the members of the group are large in number, cognitively diverse, fiercely independent, organised in a decentralised fashion and provided with an incentive to get their predictions right.” (James Surowiecki, se faisait l’écho d’universitaires (Stanford) et du département de la défense américain). Voir “The power of collective wisdom” de Joshi Venugopal et The Wisdom of Crowd : Why the Many Are Smarter Than the Few de James Surowiecki.

Posté le 2 juillet 2006

©© a-brest, article sous licence creative common info