Conspiracy Watch | l'Observatoire du conspirationnisme
Conspiracy Watch | l'Observatoire du conspirationnisme

« Nous appelons les utilisateurs de X [ex-Twitter] à engager, le 27 octobre, une grève du tweet, un #NoTwitterDay »

Publié par Collectif25 octobre 2023, , ,

Un collectif lancé par Tristan Mendès France, Julien Pain et Rudy Reichstadt, spécialistes de la lutte contre la désinformation, appelle, dans une tribune au « Monde », à ne pas utiliser pendant vingt-quatre heures la plate-forme rachetée par Elon Musk, afin d’en dénoncer les dérives.

Le 27 octobre prochain marquera le premier anniversaire de la prise de contrôle de Twitter par le milliardaire Elon Musk. La plate-forme de microblogging, rebaptisée « X » pendant l’été, occupe depuis des années une place toute particulière dans l’économie de l’information. Elle s’est imposée comme une agora planétaire, au point que des chefs d’Etat s’y expriment en temps réel. A ce titre, elle a une responsabilité considérable dans la manière dont s’organise aujourd’hui l’échange d’idées, d’opinions et d’informations à l’échelle mondiale.

Au cours de l’année qui vient de s’écouler, nous avons assisté à une série d’évolutions qui suscitent les plus vives inquiétudes quant à la direction prise par cette plate-forme. Il apparaît tout d’abord que la réduction significative des équipes de modération ne permet pas de réagir aussi diligemment qu’il le faudrait s’agissant de la suppression ou de la restriction des contenus qui contreviennent à la législation en vigueur dans l’Union européenne : désinformation, apologie du terrorisme, pédopornographie, incitation à la violence ou à la haine.

Fin septembre, plusieurs organisations américaines de lutte contre le racisme et l’antisémitisme se sont ainsi alarmées publiquement de ce que X était devenu « un terrain fertile pour certains des discours les plus dangereux », notamment ceux à caractère complotiste. Récemment, avec la reprise des hostilités ouvertes en Israël et dans la bande de Gaza, les défauts de la modération y sont apparus de manière spectaculaire. Des images d’une violence inouïe, pouvant à tout moment être vues par des mineurs, ont inondé le réseau social. Elles se sont accompagnées d’un flot de désinformation exceptionnel. Cette situation est aggravée par le retour sur la plate-forme de centaines de milliers de comptes toxiques de désinformation qui en avaient été bannis dans le sillage de l’assaut contre le Capitole de Washington le 6 janvier 2021.

Des chercheurs ont par ailleurs pu constater que l’algorithme conférait une prime de visibilité aux contenus toxiques. Ce phénomène s’est encore accru depuis qu’Elon Musk a racheté le réseau social. La mise en place d’un système de certification payant (« Twitter Blue ») a instauré une sorte de système censitaire peu compatible avec le souci sincère de garantir un accès équitable à la liberté d’expression. Ce dispositif entérine de fait un système à deux vitesses entre ceux qui font de leur présence sur ce réseau l’élément d’une stratégie d’influence et ceux qui, refusant de contribuer à la rémunération d’une plate-forme ne tenant pas ses engagements en matière de modération des contenus illégaux, ne bénéficient pas d’une certification ou se la sont vu retirer. Il contribue, de plus, à accroître artificiellement la visibilité de comptes toxiques qui monétisent leur activité au moyen de contenus sensationnalistes et polarisants.

D’autres évolutions encore s’inscrivent dans une logique de réduction de la visibilité des médias d’information classiques et d’amplification de l’empreinte numérique de médias ouvertement propagandistes. Elles dégradent inévitablement la qualité des informations en circulation dans l’espace public. Le retrait de X du code européen de bonnes pratiques contre la désinformation en ligne, qui contient des engagements visant à priver de publicité les sites de désinformation, est un sujet supplémentaire de préoccupation.

Enfin, les prises de position personnelles d’Elon Musk sur la plate-forme, où il se distingue par son soutien appuyé à des théories du complot discréditées et dangereuses, y compris en matière de santé publique, nous ont décidés à exprimer aujourd’hui notre mécontentement en appelant l’ensemble des utilisateurs de X à engager, le 27 octobre, une grève du tweet de vingt-quatre heures, un #notwitterday.

Une modération moins stricte ne fait pas progresser la liberté d’expression : elle favorise la liberté des extrémistes au détriment de celle de la majorité silencieuse. Elle ouvre la porte à la propagation de fausses informations, au harcèlement et à la division. Pensons aux voix qui sont étouffées lorsque la haine se propage sans contrôle.

Le #notwitterday n’est pas seulement une protestation contre les agissements d’Elon Musk. Il rappelle l’importance de notre voix en tant qu’utilisateurs. Si nous sommes nombreux à nous unir, à nous abstenir d’utiliser la plate-forme ce jour-là et à échanger pendant une journée entière sur d’autres plates-formes, nous enverrons un message fort à Elon Musk : la communauté des utilisateurs de ce réseau social tient à la qualité et à l’intégrité de ses échanges.

Le 27 octobre, nous ne tweeterons pas, nous ne retweeterons pas, nous ne nous connecterons pas à X. Avant et après cette date, faisons connaître le hashtag #notwitterday. Montrons que notre engagement pour une plate-forme respectueuse des faits et de la dignité des personnes est plus fort que notre besoin quotidien de « scroller ». Pour un Internet plus sûr et plus responsable, nous appelons tous les détenteurs d’un compte sur cette plate-forme à se joindre au #notwitterday.

 

Parmi les premiers signataires : Sophia Aram, humoriste et chroniqueuse ; David Chavalarias, directeur de l’Institut des systèmes complexes de Paris, CNRS ; Etienne Klein, philosophe des sciences et directeur de recherche au Commissariat à l’énergie atomique et aux énergies alternatives ; Karine Lacombe, professeur de médecine, Sorbonne Université ; Tristan Mendès France, maître de conférences associé à l’université Paris Cité ; Julien Pain, rédacteur en chef et présentateur de l’émission « Vrai ou fake » sur franceinfo TV ; Rudy Reichstadt, directeur du site Internet Conspiracy Watch.

La liste complète des signataires est accessible sur ce lien.

Source : tribune publiée le 23 octobre 2023 dans Le Monde.

Cet article est en accès libre.
Pour qu’il le reste, Conspiracy Watch a besoin de vous.
Je suis d'accord, je fais un don
je continue ma lecture

Le 27 octobre prochain marquera le premier anniversaire de la prise de contrôle de Twitter par le milliardaire Elon Musk. La plate-forme de microblogging, rebaptisée « X » pendant l’été, occupe depuis des années une place toute particulière dans l’économie de l’information. Elle s’est imposée comme une agora planétaire, au point que des chefs d’Etat s’y expriment en temps réel. A ce titre, elle a une responsabilité considérable dans la manière dont s’organise aujourd’hui l’échange d’idées, d’opinions et d’informations à l’échelle mondiale.

Au cours de l’année qui vient de s’écouler, nous avons assisté à une série d’évolutions qui suscitent les plus vives inquiétudes quant à la direction prise par cette plate-forme. Il apparaît tout d’abord que la réduction significative des équipes de modération ne permet pas de réagir aussi diligemment qu’il le faudrait s’agissant de la suppression ou de la restriction des contenus qui contreviennent à la législation en vigueur dans l’Union européenne : désinformation, apologie du terrorisme, pédopornographie, incitation à la violence ou à la haine.

Fin septembre, plusieurs organisations américaines de lutte contre le racisme et l’antisémitisme se sont ainsi alarmées publiquement de ce que X était devenu « un terrain fertile pour certains des discours les plus dangereux », notamment ceux à caractère complotiste. Récemment, avec la reprise des hostilités ouvertes en Israël et dans la bande de Gaza, les défauts de la modération y sont apparus de manière spectaculaire. Des images d’une violence inouïe, pouvant à tout moment être vues par des mineurs, ont inondé le réseau social. Elles se sont accompagnées d’un flot de désinformation exceptionnel. Cette situation est aggravée par le retour sur la plate-forme de centaines de milliers de comptes toxiques de désinformation qui en avaient été bannis dans le sillage de l’assaut contre le Capitole de Washington le 6 janvier 2021.

Des chercheurs ont par ailleurs pu constater que l’algorithme conférait une prime de visibilité aux contenus toxiques. Ce phénomène s’est encore accru depuis qu’Elon Musk a racheté le réseau social. La mise en place d’un système de certification payant (« Twitter Blue ») a instauré une sorte de système censitaire peu compatible avec le souci sincère de garantir un accès équitable à la liberté d’expression. Ce dispositif entérine de fait un système à deux vitesses entre ceux qui font de leur présence sur ce réseau l’élément d’une stratégie d’influence et ceux qui, refusant de contribuer à la rémunération d’une plate-forme ne tenant pas ses engagements en matière de modération des contenus illégaux, ne bénéficient pas d’une certification ou se la sont vu retirer. Il contribue, de plus, à accroître artificiellement la visibilité de comptes toxiques qui monétisent leur activité au moyen de contenus sensationnalistes et polarisants.

D’autres évolutions encore s’inscrivent dans une logique de réduction de la visibilité des médias d’information classiques et d’amplification de l’empreinte numérique de médias ouvertement propagandistes. Elles dégradent inévitablement la qualité des informations en circulation dans l’espace public. Le retrait de X du code européen de bonnes pratiques contre la désinformation en ligne, qui contient des engagements visant à priver de publicité les sites de désinformation, est un sujet supplémentaire de préoccupation.

Enfin, les prises de position personnelles d’Elon Musk sur la plate-forme, où il se distingue par son soutien appuyé à des théories du complot discréditées et dangereuses, y compris en matière de santé publique, nous ont décidés à exprimer aujourd’hui notre mécontentement en appelant l’ensemble des utilisateurs de X à engager, le 27 octobre, une grève du tweet de vingt-quatre heures, un #notwitterday.

Une modération moins stricte ne fait pas progresser la liberté d’expression : elle favorise la liberté des extrémistes au détriment de celle de la majorité silencieuse. Elle ouvre la porte à la propagation de fausses informations, au harcèlement et à la division. Pensons aux voix qui sont étouffées lorsque la haine se propage sans contrôle.

Le #notwitterday n’est pas seulement une protestation contre les agissements d’Elon Musk. Il rappelle l’importance de notre voix en tant qu’utilisateurs. Si nous sommes nombreux à nous unir, à nous abstenir d’utiliser la plate-forme ce jour-là et à échanger pendant une journée entière sur d’autres plates-formes, nous enverrons un message fort à Elon Musk : la communauté des utilisateurs de ce réseau social tient à la qualité et à l’intégrité de ses échanges.

Le 27 octobre, nous ne tweeterons pas, nous ne retweeterons pas, nous ne nous connecterons pas à X. Avant et après cette date, faisons connaître le hashtag #notwitterday. Montrons que notre engagement pour une plate-forme respectueuse des faits et de la dignité des personnes est plus fort que notre besoin quotidien de « scroller ». Pour un Internet plus sûr et plus responsable, nous appelons tous les détenteurs d’un compte sur cette plate-forme à se joindre au #notwitterday.

 

Parmi les premiers signataires : Sophia Aram, humoriste et chroniqueuse ; David Chavalarias, directeur de l’Institut des systèmes complexes de Paris, CNRS ; Etienne Klein, philosophe des sciences et directeur de recherche au Commissariat à l’énergie atomique et aux énergies alternatives ; Karine Lacombe, professeur de médecine, Sorbonne Université ; Tristan Mendès France, maître de conférences associé à l’université Paris Cité ; Julien Pain, rédacteur en chef et présentateur de l’émission « Vrai ou fake » sur franceinfo TV ; Rudy Reichstadt, directeur du site Internet Conspiracy Watch.

La liste complète des signataires est accessible sur ce lien.

Source : tribune publiée le 23 octobre 2023 dans Le Monde.

Depuis seize ans, Conspiracy Watch contribue à sensibiliser aux dangers du complotisme en assurant un travail d’information et de veille critique sans équivalent. Pour pérenniser nos activités, le soutien de nos lecteurs est indispensable.  

Faire un don !
à propos de l'auteur
[show_profile_image]
Partager :
Conspiracy Watch | l'Observatoire du conspirationnisme
© 2007-2024 Conspiracy Watch | Une réalisation de l'Observatoire du conspirationnisme (association loi de 1901) avec le soutien de la Fondation pour la Mémoire de la Shoah.
cross