Sommaire du dossier :
- Veilleurs : veillez (bien) à votre sourcing !
- Le sourcing, "première valeur ajoutée du veilleur" selon Béatrice Foenix-Riou
- Logiciels de veille : le sourcing accompagné
- La veille au défi des limites humaines et technologiques
- Keep Contact : une veille plus intelligente
A lire aussi : Réussir sa veille, c'est la professionnaliser (article partenaire)
Les veilleurs sont confrontés à leurs propres biais cognitifs et à l’emprise des algorithmes sur les réseaux sociaux. Accéder aux signaux faibles ressemble alors à un sport de combat…
C’est une histoire de clowns qui a fait le succès de nombreux cirques à travers le monde. Un premier clown entre sur la piste et voit un autre clown qui cherche quelque chose dans un rond de lumière. Le premier demande : « Que cherches-tu ? » Le deuxième lui répond : « Je cherche mes clés ». Le premier clown poursuit : « Tu les as perdues ici ? » Le deuxième lui répond : « Non... » Le premier clown insiste : « Alors pourquoi les cherches-tu ici ? » Le second clown répond : « Parce qu’ici il y a de la lumière ! » Rires du public.
Sans le savoir, ce pauvre clown est victime d’un biais cognitif. À ses yeux, il n’y a point de salut en dehors du rond de lumière et il ne lui serait jamais venu à l’esprit de chercher ses clés ailleurs que dans la partie éclairée de la piste. Ce numéro de cirque très ancien résume assez bien ce que sont les biais cognitifs.
Ce mécanisme psychologique très répandu se présente sous différentes formes :
- le biais de représentativité : considérer un élément isolé comme représentatif d’une totalité ;
- le biais égocentrique : surestimation de soi-même ;
- le biais de confirmation : ne retenir que les informations qui valident un point de vue ou un préjugé...
Autant le dire tout de suite, personne n’échappe à ces biais.
Vers un auto-endoctrinement
Dans le domaine de la veille, ces biais cognitifs sont désormais bien connus. On les appelle « bulles de filtre », « bulles informationnelles » ou bien « bulles de confort ». Pour Eli Pariser, auteur d’un ouvrage sur le sujet, ces bulles nous mènent inéluctablement à une vision erronée du monde : « Vous vous endoctrinez vous-même avec vos propres opinions. Vous ne réalisez pas que ce que vous voyez n’est qu’une partie du tableau. Et cela a des conséquences sur la démocratie : pour être un bon citoyen, il faut que vous puissiez vous mettre à la place des autres et avoir une vision d’ensemble. Si tout ce que vous voyez s’enracine dans votre propre identité, cela devient difficile, voire impossible ».
Au-delà des biais cognitifs, Eli Pariser vise également tous les outils dont les veilleurs se servent quotidiennement. À commencer par les moteurs de recherche. Le plus connu d’entre eux, Google (plus de 90 % des parts de marché en France), remonte des résultats différents selon les profils des internautes. Plusieurs dizaines de critères sont ainsi pris en compte : localisation, historique de recherche, type d’ordinateur, langue utilisée... Pour le sociologue Gérald Bronner, « cela part sans doute de la volonté de rendre nos recherches plus performantes. Mais cela peut poser un sérieux problème si vous voulez éviter de trouver des informations allant dans le sens de vos croyances, en bref, si vous voulez éviter d’être victime du biais de confirmation ».
Derrière les résultats proposés par Google, on trouve ces incontournables algorithmes qui hiérarchisent les centaines de millions de pages web. Cette sélection est censée correspondre au profil de chaque internaute. Problème : ces algorithmes suggèrent certaines sources et en occultent d’autres. Certains s’en réjouiront, car, il faut bien le reconnaître, les résultats sont souvent très pertinents. D’autres, notamment les veilleurs, doivent s’interroger sur ces algorithmes qui risquent de les faire passer à côté des signaux faibles qui sont par nature peu présents sur le web.
De la présentation antéchronologique au règne des algorithmes
Les moteurs de recherche ne sont pas les seuls outils à faire l’objet de critiques. Les réseaux sociaux sont, eux aussi, accusés de présenter une information orientée sous l’influence des algorithmes. Twitter a ainsi décidé en 2016 d’abandonner la présentation antéchronologique (apparition des tweets les plus récents en premier) pour un affichage régi par des algorithmes qui définissent la priorité des tweets.
Comme chez Google, Twitter prend désormais en compte plusieurs critères sur lesquels l’utilisateur a peu de prise : nombre de retweets, fréquence de like ou de clics... Intéressant lorsqu’il s’agit de veiller sur des sujets grand public, mais contestable pour les veilleurs en quête d’informations à moindre visibilité. D’une certaine façon, l’utilisateur se voit suggérer des tweets susceptibles de l’intéresser, mais qui risquent également de renforcer ses centres d’intérêt au détriment de la découverte de sources alternatives.
Facebook n’est pas en reste avec son célèbre Newsfeed Ranking Algorithm qui sélectionne les contenus à la place de l’internaute. Cette sélection serait opérée sur la base de... 100 000 paramètres ! Mais il est difficile d’en savoir plus tant Facebook, comme Google et Twitter, est très discret sur ses secrets de cuisine.
On sait néanmoins que le réseau social prend en compte le nombre d’interactions liées à un contenu : « j’aime », « donnez votre avis sur cette publication »... Plus le nombre de ces actions est élevé, plus le contenu a de chances d’apparaître en priorité. De même, une publication récente est plus souvent mise en avant qu’un contenu ancien. Problème : un veilleur ayant débranché son compte Facebook pendant quelques heures risque de passer à côté d’une information pertinente, mais jugée trop ancienne par Facebook.
Face aux algorithmes, que faire ?
Du côté de YouTube, on constate les mêmes risques d’enfermement informationnel. Chacun peut en faire l’expérience : il suffit de regarder une vidéo sur un thème précis pour voir apparaître à droite de l’écran des recommandations proches de la vidéo regardée. Pendant longtemps, les internautes se sont interrogés sur la façon dont YouTube parvenait à anticiper leurs goûts et leurs envies.
Les équipes de la plateforme d’hébergement de vidéos (propriété de Google depuis 2006) ont fini par dévoiler une partie de leur méthode. Sans surprises, l’historique de visionnement apparaît comme l’un des premiers critères retenus par les algorithmes de YouTube. Vient ensuite le taux de clics sur les vignettes de suggestion proposées à l’internaute : si une vignette n’est pas cliquée, elle finit par disparaître des suggestions. Autre critère, la durée de visionnage joue en faveur des auteurs dont les vidéos sont regardées du début jusqu’à la fin.
Alors face aux algorithmes, que faire ? Aux États-Unis, une initiative a récemment vu le jour : Gobo est un agrégateur de médias sociaux qui permet à l’utilisateur de garder la main sur les filtres qu’il souhaite appliquer aux flux d’information. Il suffit de relier Gobo à un compte Twitter ou Facebook et d’ajuster les filtres à la volée : plus ou moins d’articles sérieux (seriousness), plus ou moins d’articles produits par des hommes ou par des femmes (gender), plus ou moins d’impolitesse (rudeness)... Il est également possible de favoriser des informations éloignées de ses propres opinions politiques.
À ce jour, Gobo est au stade de prototype et il est trop tôt pour connaître sa pertinence ou son taux d’adoption par les internautes. Mais l’expérience est suivie de près par les professionnels de l’information.
À l’heure où la désinformation sévit sur la totalité des écrans, on méditera les résultats d’une enquête réalisée par l’Association de l’économie du numérique (Acsel) : sur 1 000 personnes interrogées, seulement 25 % déclarent consulter les réseaux sociaux pour s’informer (4). Elles sont trois fois plus nombreuses à faire confiance aux sites des médias traditionnels (75 %).
Reste à savoir si ces médias traditionnels échappent aux biais cognitifs.