Co-fondateur d’AlgoTransparency et ex-salarié de Google, où il a pris part au développement de l’algorithme de recommandations de YouTube, Guillaume Chaslot vient de publier avec deux chercheurs de l’Université de Berkeley (Marc Faddoul et Hany Farid) une étude portant sur les recommandations, par la plateforme de vidéos en ligne, de vidéos à caractère conspirationniste. Il répond à nos questions.

Guillaume Chaslot (Mozilla All Hands, janvier 2019).

Conspiracy Watch : Vous avez cherché à vérifier si les efforts annoncés l’année dernière par YouTube pour limiter la propagation sur sa plateforme des vidéos les plus manifestement conspirationnistes avaient été suivis d’effets. Qu’en est-il au final ? Etes-vous optimiste pour l’avenir ?

Guillaume Chaslot : YouTube avait annoncé en décembre que les 30 mesures qu’ils ont pris ont réduit l’amplification du harmful content [les contenus nuisibles – ndlr] de 70%. Avec l’Université de Californie à Berkeley, nous avons en effet observé une diminution des contenus complotistes de l’ordre de 50% environ. C’est donc un gros progrès en un an seulement, notamment grâce aux campagnes que je fais depuis trois ans pour alerter sur ces sujets. S’il faut louer ce changement radical de politique, il reste énormément a faire pour que l’algorithme recommande plus de qualité. Il est principalement développé pour maximiser la quantité de vidéos vues, qui permet de générer davantage de revenus publicitaires.

CW : Quelles sont selon vous les théories du complot encore très recommandées par YouTube et qui vous paraissent les plus dangereuses ?

G. C. : En ce moment, des vidéos qui disent que « la Science prouve la Bible » sont recommandées par dizaines de millions. D’autres, destinées aux jeunes de la chaîne « After Skool » (plus de 60 millions de vues cumulées) leur parlent de Nikola Tesla, de « l’énergie libre » et des pyramides. Ces vidéos qui racontent n’importe quoi aux enfants et aux adolescents pour gagner 4 centimes par heure – heure qu’ils perdent devant un écran – sont celles qui me rendent le plus malade.

CW : Votre co-auteur, Hany Farid, a déclaré au New York Times que YouTube peut faire beaucoup plus pour réduire les contenus complotistes mais qu’il ne le veut pas. Partagez-vous cet avis ?

G. C. : Après des années a promouvoir les pires théories du complot en matière de santé, comme par exemple sur les vaccins, YouTube recommande très peu de théories du complot sur le coronavirus. C’est la démonstration que quand Google veut, Google peut [YouTube est une filiale de Google – ndlr]. Et donc, comme YouTube promeut encore beaucoup de choses fausse, c’est qu’ils ne veulent pas vraiment, car cela nuirait à leur business model.

Il faut bien préciser que le problème pour moi n’est pas que les théories du complot soient sur YouTube. Qu’elles soient disponibles est le plus souvent bon pour la liberté d’expression. Le problème est quand un algorithme qui s’emballe se met à promouvoir des théories du complot par millions. Tout ça pour quelques centimes de revenus publicitaires par heure de vue.

 

Voir aussi :

YouTube peut-il faire taire ses complotistes ?

Modération des comptes et vidéos extrémistes : ce que les plateformes peuvent faire de plus