Conspiracy Watch | l'Observatoire du conspirationnisme
Conspiracy Watch | l'Observatoire du conspirationnisme

Trois questions à Guillaume Chaslot

Publié par La Rédaction14 mars 2020, ,

Co-fondateur d’AlgoTransparency et ex-salarié de Google, où il a pris part au développement de l'algorithme de recommandations de YouTube, Guillaume Chaslot vient de publier avec deux chercheurs de l'Université de Berkeley (Marc Faddoul et Hany Farid) une étude portant sur les recommandations, par la plateforme de vidéos en ligne, de vidéos à caractère conspirationniste. Il répond à nos questions.

Guillaume Chaslot (Mozilla All Hands, janvier 2019).

Conspiracy Watch : Vous avez cherché à vérifier si les efforts annoncés l'année dernière par YouTube pour limiter la propagation sur sa plateforme des vidéos les plus manifestement conspirationnistes avaient été suivis d'effets. Qu'en est-il au final ? Etes-vous optimiste pour l'avenir ?

Guillaume Chaslot : YouTube avait annoncé en décembre que les 30 mesures qu'ils ont pris ont réduit l'amplification du harmful content [les contenus nuisibles – ndlr] de 70%. Avec l'Université de Californie à Berkeley, nous avons en effet observé une diminution des contenus complotistes de l'ordre de 50% environ. C'est donc un gros progrès en un an seulement, notamment grâce aux campagnes que je fais depuis trois ans pour alerter sur ces sujets. S'il faut louer ce changement radical de politique, il reste énormément a faire pour que l'algorithme recommande plus de qualité. Il est principalement développé pour maximiser la quantité de vidéos vues, qui permet de générer davantage de revenus publicitaires.

CW : Quelles sont selon vous les théories du complot encore très recommandées par YouTube et qui vous paraissent les plus dangereuses ?

G. C. : En ce moment, des vidéos qui disent que « la Science prouve la Bible » sont recommandées par dizaines de millions. D'autres, destinées aux jeunes de la chaîne « After Skool » (plus de 60 millions de vues cumulées) leur parlent de Nikola Tesla, de « l'énergie libre » et des pyramides. Ces vidéos qui racontent n'importe quoi aux enfants et aux adolescents pour gagner 4 centimes par heure – heure qu'ils perdent devant un écran – sont celles qui me rendent le plus malade.

CW : Votre co-auteur, Hany Farid, a déclaré au New York Times que YouTube peut faire beaucoup plus pour réduire les contenus complotistes mais qu'il ne le veut pas. Partagez-vous cet avis ?

G. C. : Après des années a promouvoir les pires théories du complot en matière de santé, comme par exemple sur les vaccins, YouTube recommande très peu de théories du complot sur le coronavirus. C'est la démonstration que quand Google veut, Google peut [YouTube est une filiale de Google – ndlr]. Et donc, comme YouTube promeut encore beaucoup de choses fausse, c'est qu'ils ne veulent pas vraiment, car cela nuirait à leur business model.

Il faut bien préciser que le problème pour moi n'est pas que les théories du complot soient sur YouTube. Qu'elles soient disponibles est le plus souvent bon pour la liberté d'expression. Le problème est quand un algorithme qui s'emballe se met à promouvoir des théories du complot par millions. Tout ça pour quelques centimes de revenus publicitaires par heure de vue.

 

Voir aussi :

YouTube peut-il faire taire ses complotistes ?

Modération des comptes et vidéos extrémistes : ce que les plateformes peuvent faire de plus

Cet article est en accès libre.
Pour qu’il le reste, Conspiracy Watch a besoin de vous.
Je suis d'accord, je fais un don
je continue ma lecture
Guillaume Chaslot (Mozilla All Hands, janvier 2019).

Conspiracy Watch : Vous avez cherché à vérifier si les efforts annoncés l'année dernière par YouTube pour limiter la propagation sur sa plateforme des vidéos les plus manifestement conspirationnistes avaient été suivis d'effets. Qu'en est-il au final ? Etes-vous optimiste pour l'avenir ?

Guillaume Chaslot : YouTube avait annoncé en décembre que les 30 mesures qu'ils ont pris ont réduit l'amplification du harmful content [les contenus nuisibles – ndlr] de 70%. Avec l'Université de Californie à Berkeley, nous avons en effet observé une diminution des contenus complotistes de l'ordre de 50% environ. C'est donc un gros progrès en un an seulement, notamment grâce aux campagnes que je fais depuis trois ans pour alerter sur ces sujets. S'il faut louer ce changement radical de politique, il reste énormément a faire pour que l'algorithme recommande plus de qualité. Il est principalement développé pour maximiser la quantité de vidéos vues, qui permet de générer davantage de revenus publicitaires.

CW : Quelles sont selon vous les théories du complot encore très recommandées par YouTube et qui vous paraissent les plus dangereuses ?

G. C. : En ce moment, des vidéos qui disent que « la Science prouve la Bible » sont recommandées par dizaines de millions. D'autres, destinées aux jeunes de la chaîne « After Skool » (plus de 60 millions de vues cumulées) leur parlent de Nikola Tesla, de « l'énergie libre » et des pyramides. Ces vidéos qui racontent n'importe quoi aux enfants et aux adolescents pour gagner 4 centimes par heure – heure qu'ils perdent devant un écran – sont celles qui me rendent le plus malade.

CW : Votre co-auteur, Hany Farid, a déclaré au New York Times que YouTube peut faire beaucoup plus pour réduire les contenus complotistes mais qu'il ne le veut pas. Partagez-vous cet avis ?

G. C. : Après des années a promouvoir les pires théories du complot en matière de santé, comme par exemple sur les vaccins, YouTube recommande très peu de théories du complot sur le coronavirus. C'est la démonstration que quand Google veut, Google peut [YouTube est une filiale de Google – ndlr]. Et donc, comme YouTube promeut encore beaucoup de choses fausse, c'est qu'ils ne veulent pas vraiment, car cela nuirait à leur business model.

Il faut bien préciser que le problème pour moi n'est pas que les théories du complot soient sur YouTube. Qu'elles soient disponibles est le plus souvent bon pour la liberté d'expression. Le problème est quand un algorithme qui s'emballe se met à promouvoir des théories du complot par millions. Tout ça pour quelques centimes de revenus publicitaires par heure de vue.

 

Voir aussi :

YouTube peut-il faire taire ses complotistes ?

Modération des comptes et vidéos extrémistes : ce que les plateformes peuvent faire de plus

Depuis seize ans, Conspiracy Watch contribue à sensibiliser aux dangers du complotisme en assurant un travail d’information et de veille critique sans équivalent. Pour pérenniser nos activités, le soutien de nos lecteurs est indispensable.  

Faire un don !
à propos de l'auteur
[show_profile_image]
Partager :
Conspiracy Watch | l'Observatoire du conspirationnisme
© 2007-2024 Conspiracy Watch | Une réalisation de l'Observatoire du conspirationnisme (association loi de 1901) avec le soutien de la Fondation pour la Mémoire de la Shoah.
cross