Quelle transparence des algorithmes des catalogues de bibliothèques ?

rubon10-d0be1J’ai suivi avec plaisir le séminaire organisé par l’IRI (Institut de Recherche et d’Innovation : Algorithmes et éditorialisation automatisée dans lequel intervenaient Audrey Laplante en direct de l’EBSI à Montréal et Dominique Cardon. Je vous invite à visionner la vidéo annotée via twitter de leurs interventions. L’argument était le suivant :

Derrière nos expériences de lecture se cache de plus en plus une structuration des données par des algorithmes (souvent propriétaires) qui deviennent les producteurs du sens des contenus. En créant des parcours de lecture et en les offrant aux lecteurs les algorithmes sont un dispositif d’éditorialisation de plus en plus présent et puissant. Outre le PageRank de Google, quels sont les nouveaux paradigmes métriques et statistiques qui façonnent par défaut (si ce n’est par autorité) notre monde informationnel et la mise en signification du monde ?
L’algorithme est-il une réponse plausible (et unique) à la prolifération des données transformant le web en “un immense bazar où il serait impossible de trier l’information de qualité” ?

<script type="text/javascript" src="http://polemictweet.com/edito-1314-05-algorithme/embedscript.php"></script>
Dominique Cardon explique qu’il est parfaitement inutile de dénoncer une absence de neutralité d’un algorithme, tout simplement parce que celle-ci n’existe pas. Il situe la critique de la gouvernementalité algorithmique dans l’analyse de ce que font vraiment les algorithmes (à ce moment précis de la conférence). Il emploie pour exprimer ce positionnement la notion de désalignement. Se désaligner c’est ne pas croire ce qu’on nous dit que font les algorithmes mais vérifier ce qu’ils font vraiment.

Audrey Laplante rebondit sur cette notion et cite l’expérience de la bibliothèque Université de Sherbrooke qui après avoir changé de système informatique entre un fournisseur de catalogue vers un fournisseur de données ET de catalogue s’est aperçue que l’algorithme de pertinence de leur nouveau prestataire favorisait entre 30 et 40% les données qu’il fournissait… Très inquiétant en effet ! Voilà qui appelle à mon avis deux types de réponses :

  • l’emploi de moteurs de recherche libres à condition d’avoir des compétences en interne capable d’en maîtriser les réglages
  • la demande systématique dans nos cahiers des charges du descriptif précis des algorithmes que nous achetons et d’une interface capable de nous permettre de configurer le poids des critères

Au delà des algorithmes de pertinence, on pourrait aussi citer le cas des algorithmes de recommandation qui permettent de naviguer dans la longue traîne des bibliothèques. J’avais écrit un article à ce sujet il y a déjà quelques années en essayant de sensibiliser à l’importance du paramétrage des recommandations. C’est toujours d’actualité ! Désalignons nous et soyons exigeant sur la transparence des algorithmes que nous pouvons maîtriser.

 

 

flattr this!

Via un article de Silvère Mercier, publié le 29 avril 2014

©© a-brest, article sous licence creative common info