Guillaume Champeau est un spécialiste des questions éthiques liées au numérique. Fondateur et ancien rédacteur en chef de Numerama (de 2001 à 2016), il est aujourd'hui directeur de l'éthique et des affaires juridiques de Qwant, le moteur de recherche français qui ne collecte pas les données de ses utilisateurs et garantit le non filtrage des résultats. En ce début d'année 2019, il nous a fait part de ses points de vigilance en matière numérique.
Les abonnés d'Archimag pourront également découvrir un portrait de Guillaume Champeau dans notre numéro de février, en préparation.
Quels sont vos sujets de préoccupation numériques, en ce début d'année ?
Les questions liées à l'intelligence artificielle (IA) et à la liberté d'expression me préoccupent beaucoup. En la matière, nous utilisons en Europe essentiellement les services de Google, Facebook ou encore Amazon, et nous rendons dépendants de leurs services et de leurs capacités de calculs tout en leur fournissant nos données. De fait, l'Europe s'apparente à une "colonie numérique". Pourtant, il est encore possible de renverser les choses technologiquement. En effet, une grande partie des algorithmes d'IA son open source et de nombreuses communautés de chercheurs ou d'ingénieurs sont dans cette culture du partage. Il n'y a pas tant de secrets industriels que ça dans l'IA. Et nous ne sommes pas si mauvais non plus en terme de capacités de calculs. Mais ce qui nous manque surtout, c'est le financement des entreprises.
Nous sommes toujours plus dépendants des Gafa...
Et nous devons absolument sortir de cette dépendance ! On nous demande de plus en plus d'utiliser l'IA, et ce pour tout et n'importe quoi : détection de contenus illicites, détection de discours de haine sur les réseaux sociaux, ou encore détection automatique des droits d'auteur sur les plateformes, etc. Certains Etats européens créent même des lois autour de ces questions. Or, les seuls à disposer aujourd'hui des technologies nécessaires pour faire ce genre de choses sont les Gafa. Donc ces Etats européens sont en train d'écrire dans la loi que nos entreprises européennes vont devoir se rendre dépendantes des technologies et des outils fournis par les Gafa.
Cela m'inquiète énormément, car en terme de droit et de régulation, on donne un pouvoir à une entreprise privée pour que ce soit elle qui décide de ce qui est légal. C'est un danger énorme pour la liberté d'expression. Sans compter tout ce qu'ils peuvent déjà contrôler par ailleurs ! Amazon a même posté un tweet extraordinaire début décembre affirmant qu'ils avaient le pouvoir de contrôler votre maison à distance. Ce tweet, qu'Amazon a retiré depuis, était d'une honnêteté incroyable et j'imagine que beaucoup de gens ayant Alexa chez eux ont dû commencer à réaliser quels étaient ses pouvoirs cachés...
Les enceintes connectées et les assistants vocaux vous préoccupent-ils aussi ?
Evidemment, il y a toutes les questions de sécurité et de vie privée liées à ces technologies, sur lesquelles je ne vais pas m'étendre. J'espère que les gens ont enfin compris qu'une enceinte connectée les écoute 24 heures sur 24, conserve l'historique de toutes leurs demandes et même l'enregistrement vocal.
Moi ce qui m'inquiète bien plus, c'est que lorsque vous posez une question à un assistant personnel, celui-ci ne fournit qu'une seule réponse (à l'inverse des moteur de recherche avec une interface graphique, qui proposent une multitude de résultats possibles). D'abord, une seule réponse, c'est un seul point de vue, ce qui pose de grandes questions en terme de pluralité de l'information. A l'heure des fake news, c'est très préoccupant. Ensuite, cette réponse unique des assistants personnels pose de grandes questions en matière de transparence sur les partenariats : êtes-vous sûrs qu'on vous fournira la "meilleure" réponse possible pour vous (et la meilleure sur la base de quoi ?) ou parce qu'un annonceur aura payé pour que ce soit lui qu'on vous conseille plutôt qu'un autre ?
Par ailleurs, Google (Home), Amazon (Alexa), Apple (Siri) et les autres développent des voix de synthèse qui imitent le plus possible la voix humaine dans ses intonations, son débit, ses respirations et ses émotions, ce qui est extrêmement compliqué techniquement. Pourtant, quand vous parlez à un robot, la seule chose qui vous intéresse, c'est ce qu'il vous dit, pas comment il le dit... Donc si les Gafa travaillent là-dessus malgré tout, c'est qu'ils y ont un intérêt : brouiller les lignes entre ce robot et humain.
Pour nous mettre en confiance...
Oui, car le fonctionnement de notre cerveau est ainsi fait: on a tendance à faire confiance à un humain et à avoir de l'empathie pour lui. Brouiller les lignes entre machine et humain a pour objectif de nous faire progressivement oublier que c'est une machine que l'on a en face de nous et donc à lui faire de plus en plus confiance. C'est la technique de vente numéro 1 des commerciaux : susciter l'empathie des clients ! Et si en plus cette machine dispose d'une multitude de données sur vous (elle connaît donc vos failles), elle pourra vous vendre n'importe quoi si vous oubliez qu'il s'agit d'une machine. Regardez, Amazon et Google exigent même que les enfants leur disent "s'il te plaît" avant toute requête, sous prétexte de leur apprendre la politesse ! Concrètement, on habitue les humains dès l'enfance à traiter les robots (c'est à dire une chose) comme un semblable et à lui devoir le respect. Et c'est grave.
On tombe dans tout ce que les films de science-fiction nous montraient pour nous mettre en garde il y a 10, 20 ou 30 ans (Terminator, Blade Runner, etc) et pourtant on saute dedans à pieds joints en se disant "c'est chouette" !