Quelle transparence des algorithmes des catalogues de bibliothèques?

rubon10-d0be1J’ai suivi avec plaisir le séminaire organisé par l’IRI (Institut de Recherche et d’Innovation : Algorithmes et éditorialisation automatisée dans lequel intervenaient Audrey Laplante en direct de l’EBSI à Montréal et Dominique Cardon. Je vous invite à visionner la vidéo annotée via twitter de leurs interventions. L’argument était le suivant :

Derrière nos expériences de lecture se cache de plus en plus une structuration des données par des algorithmes (souvent propriétaires) qui deviennent les producteurs du sens des contenus. En créant des parcours de lecture et en les offrant aux lecteurs les algorithmes sont un dispositif d’éditorialisation de plus en plus présent et puissant. Outre le PageRank de Google, quels sont les nouveaux paradigmes métriques et statistiques qui façonnent par défaut (si ce n’est par autorité) notre monde informationnel et la mise en signification du monde ?
L’algorithme est-il une réponse plausible (et unique) à la prolifération des données transformant le web en “un immense bazar où il serait impossible de trier l’information de qualité” ?


Dominique Cardon explique qu’il est parfaitement inutile de dénoncer une absence de neutralité d’un algorithme, tout simplement parce que celle-ci n’existe pas. Il situe la critique de la gouvernementalité algorithmique dans l’analyse de ce que font vraiment les algorithmes (à ce moment précis de la conférence). Il emploie pour exprimer ce positionnement la notion de désalignement. Se désaligner c’est ne pas croire ce qu’on nous dit que font les algorithmes mais vérifier ce qu’ils font vraiment.

Audrey Laplante rebondit sur cette notion et  cite l’expérience de la bibliothèque  Université de Sherbrooke qui après avoir changé de système informatique entre un fournisseur de catalogue vers un fournisseur de données ET de catalogue s’est aperçue que l’algorithme de pertinence de leur nouveau prestataire favorisait entre 30 et 40% les données qu’il fournissait… Très inquiétant en effet! Voilà qui appelle à mon avis deux types de réponses :

  • l’emploi de moteurs de recherche libres à condition d’avoir des compétences en interne capable d’en maîtriser les réglages
  • la demande systématique dans nos cahiers des charges du descriptif précis des algorithmes que nous achetons et d’une interface capable de nous permettre de configurer le poids des critères

Au delà des algorithmes de pertinence, on pourrait aussi citer le cas des algorithmes de recommandation qui permettent de naviguer dans la longue traîne des bibliothèques. J’avais écrit un article à ce sujet il y a déjà quelques années en essayant de sensibiliser à l’importance du paramétrage des recommandations. C’est toujours d’actualité ! Désalignons nous et soyons exigeant sur la transparence des algorithmes que nous pouvons maîtriser.

 

 

Silvae

Je suis chargé de la médiation et des innovations numériques à la Bibliothèque Publique d’Information – Centre Pompidou à Paris. Bibliothécaire engagé pour la libre dissémination des savoirs, je suis co-fondateur du collectif SavoirsCom1 – Politiques des Biens communs de la connaissance. Formateur sur les impacts du numériques dans le secteur culturel Les billets que j'écris et ma veille n'engagent en rien mon employeur, sauf précision explicite.

2 réponses

  1. 30 avril 2014

    […] des algorithmes des catalogues de bibliothèques? [Billet de blogue]. Repéré de Bibliobsession http://www.bibliobsession.net/2014/04/29/quelle-transparence-des-algorithmes-des-catalogues-de-bibli…le 29 avril […]

  2. 10 juin 2014

    […] humainement, passionnément? Je pense que Dominique Cardon a raison d’appeler au désalignement des algorithmes de recommandations, et pour moi la meilleur manière de le faire est de s’intéresser de près aux communautés […]