La commission des affaires juridiques du Parlement européen a proposé une clause d’exemption de modération pour les médias. Une initiative qui risque de compromettre des années d’efforts dans la lutte contre la désinformation selon des experts.

La Commission européenne (crédits : CW, 2021).

Le Parlement européen examine à l’heure actuelle un règlement décisif sur les plateformes numériques, le « Digital Services Act » (DSA). Toutefois, une inquiétante proposition de la commission des affaires juridiques du Parlement visant à inclure une clause d’exemption pour les médias risque de faire reculer et d’annuler des années de progrès dans la lutte contre les discours de haine et la désinformation en ligne. Des journalistes, des spécialistes en fact-checking et des chercheurs ont rédigé une lettre ouverte exhortant les députés européens à rejeter toute proposition incluant une telle clause. Conspiracy Watch en publie la version française en exclusivité :

Chers membres de la commission du marché intérieur et de la protection des consommateurs,

Alors que vous débattez de la position du Parlement européen sur le règlement sur les services numériques (DSA), nous vous exhortons à rejeter la proposition formulée in extremis par la commission des affaires juridiques visant à inclure dans ce texte une clause d’exemption pour les médias.

Une exemption pour les médias annulerait des années de progrès dans la lutte contre les discours de haine et la désinformation en ligne, empêchant les très grandes plateformes en ligne de sanctionner, de supprimer ou même d’étiqueter tout contenu provenant d’une publication de presse, qu’une publication diffuse ou non un contenu haineux, manifestement faux ou préjudiciable. Non seulement cela protégerait des milliers de comptes revendiquant des privilèges conférés par le statut de média du DSA, mais cela empêcherait ou dissuaderait les plateformes elles-mêmes de prendre des mesures correctives volontaires.

En tant que journalistes et experts sur les questions de désinformation, nous sommes préoccupés par la définition large et ambiguë de ce qui constitue une « publication de presse » et un « service de médias audiovisuels ». La définition proposée par la commission des affaires juridiques inclut certainement les journaux et magazines « traditionnels », et exclut définitivement les publications universitaires et scientifiques, mais, comme l’a indiqué une étude précédente de cette commission, « entre les deux se trouve un grand nombre d’entités en ligne et hors ligne, qui ne sont pas clairement incluses ou exclues de la définition ». Un amendement similaire de la commission de la culture et de l’éducation faisait également référence aux « fournisseurs de contenus éditoriaux », une définition encore moins claire.

Des travaux de recherche ont systématiquement identifié des acteurs malveillants ou tout simplement peu fiables présentant leurs contenus comme du journalisme crédible, tout en partageant des informations fausses, haineuses ou trompeuses, intentionnellement ou non. Cela inclut la presse jaune et les tabloïds qui sont régulièrement rappelés à l’ordre par les conseils de presse nationaux et les organes de surveillance des médias. Cela inclut également les opérations de désinformation qui s’appuient régulièrement sur des comptes de médias pour diffuser du contenu. L’année dernière, EU DisinfoLab a révélé que plus de 750 médias dans 116 pays participaient à une importante opération indienne de désinformation. Facebook et Twitter ont également pris des mesures l’année dernière contre un média qui embauchait des journalistes indépendants américains, après avoir découvert qu’il faisait partie d’une opération de désinformation russe. Notre expérience de journalistes et chercheurs en désinformation nous a montré qu’il est pratiquement impossible de définir de manière significative qui ou quoi est une « publication de presse » légitime dans l’environnement en ligne.

Nous sommes préoccupés par le fait que les plateformes agissent fréquemment de manière arbitraire dans leurs décisions de modération de contenus. Par exemple, Frances Haugen et Sophie Zhang, lanceuses d’alerte de Facebook, ont toutes deux révélé de profondes failles dans la façon dont l’entreprise priorise les zones géographiques et les individus sur lesquels elle concentre ses efforts de modération de contenu. Cependant, la solution n’est pas de créer une échappatoire pour les organisations qui prétendent être des médias fiables. Une meilleure solution consiste à se concentrer sur le renforcement des dispositions relatives à la transparence, à l’examen des données et à l’application du DSA. Les pouvoirs d’audit en particulier sont essentiels pour s’assurer que soient définies les responsabilités autour des pratiques automatisées de modération de contenus. Les dispositions d’audit devraient être améliorées en permettant à la société civile et aux journalistes d’investigation – pas seulement aux chercheurs – d’accéder aux données de la plateforme pour aider à identifier et atténuer les risques systémiques. En outre, les plateformes ne devraient pas pouvoir invoquer le secret lié à la sécurité ou le secret commercial comme excuse pour ne pas accorder l’accès aux données qui sont nécessaires pour protéger l’intérêt public.

Le DSA doit refléter notre besoin de pluralisme des médias, de diversité culturelle et linguistique et d’accès facile à des nouvelles et des informations fiables. Cependant, en donnant un blanc-seing aux « fournisseurs de contenu éditorial » et aux « fournisseurs de services multimédias » au sens large et en les exemptant de toute modération, nous risquons de transformer le DSA en une autoroute pour les discours de haine et la désinformation.

Tous vos groupes politiques ont fait des déclarations publiques fortes sur la lutte contre la haine et la désinformation en ligne. Nous pensons qu’il est maintenant temps de transformer ces paroles en actes.

À la lumière de ce qui précède, nous vous exhortons à rejeter au sein de la commission du marché intérieur et de la protection des consommateurs toute proposition qui inclurait une exemption pour les médias.

 

Les signataires : Cathrin Schaer, journaliste chez Wired ; Anne-Sophie Novel, journaliste indépendante ; David Schraven, éditeur chez CORRECTIV et Responsable de CORRECTIV.Fakt ; Lorenzo Marini, co-directeur de Verificat ; Tommaso Canetta, vice-directeur, Pagella Politica ; Thedoros Daniilidis, Fondateur d’Ellinika Hoaxes ; Carlos Hernández-Echevarría, responsable des politiques publiques et du développement institutionnel chez Maldita.es ; Michał Pawela, analyste en chef chez FakeNews.Pl ; Vytautas Benokraitis, PDG de Delfi Lituanie ; Guillaume Kuster, co-fondateur et président, Check First OY ; Guillermo Beltrà, chef de l’équipe numérique UE à l’Open Society European Policy Institute (OSEPI) ; Mária Bieliková, directrice et chercheuse experte au Kempelen Institute of Intelligent Technologies ; professeur Kalina Bontcheva, Université de Sheffield ; Emerson T. Brooking, chercheur principal résident, Digital Forensic Research Lab de l’Atlantic Council ; Stéphane Duguin, PDG du CyberPeace Institute ; Cooper Gatewood, directeur senior de la recherche numérique à l’Institute for Strategic Dialogue ; Dominika Hajdu, directrice du Centre for Democracy & Resilience, GLOBSEC ; Pavel Havlicek, chercheur au AMO Research Centre Prague ; Anna-Lena von Hodenberg, directrice, HateAid ; Julian Jaursch, directeur de projet, SNV ; Torben Klausa, journaliste et chercheur sur la régulation des plateformes ; Tomáš Kriššák, expert en sécurité de l’information chez Gerulata Technologies ; Xavier Brandao, président de Je Suis Là ; Arber Kuci, chercheur anti-désinformation chez Avaaz ; Adam Lelonek, PhD, chercheur indépendant ; professeur Stephan Lewandowsky, Université de Bristol ; Gary Machado, directeur général du EU Disinfo Lab ; Nathalie Maréchal, PhD, Senior Policy & Partnerships Manager chez Ranking Digital Rights ; Lucina de Meco, co-fondatrice de #ShePersisted Global ; Clare Melford, co-fondatrice et directrice exécutive de The Global Disinformation Index ; Tristan Mendès France, maître de conférences associé à l’Université de Paris, responsable de l’initiative #StopHateMoney ; prof. Trisha Meyer, directrice de recherche du Centre pour la numérisation, la démocratie et l’innovation à la Brussels School of Governance, Vrije Universiteit Brussel, (VUB) ; Rosie Morgan-Stuart, chercheuse anti-désinformation chez Avaaz ; Luca Nicotra, directeur de campagne et chercheur anti-désinformation chez Avaaz ; Jordy Nijenhuis, co-fondateur de Dare to be Grey ; Tanya O’Carroll, experte indépendante sur la technologie et les droits de l’homme ; Dr Rafal Pankowski, professeur au Collegium Civitas (Pologne) ; Symeon Papadopoulos, Centre de recherche et de technologie Hellas ; Stephen Perrotti, chercheur anti-désinformation chez Avaaz ; Sarah Andrew, directrice juridique de la campagne anti-désinformation d’Avaaz ; Flora Rebello Arduini, consultante principale en campagnes et chercheuse anti-désinformation chez SumOfUs ; Hannah Richter, gestionnaire de campagne, Dare to be Grey ; Ann Cathrin Riedel, présidente de l’association LOAD eV pour la politique libérale ; Domen Savič, PDG de Državljan D / Citizen D ; Kristína Šefčíková, coordinatrice de projet à l’Institut d’études de sécurité de Prague ; Matej Spišák, rédacteur en chef d’Infosecurity.sk ; Alexander Sängerlaub, directeur de Futur Eins ; Nathan Sparkes, PDG de Hacked Off ; Alice Stollmeyer, directrice exécutive de Defend Democracy ; Georgios Terzis, Brussels School of Governance ; Nicolas Vanbremeersch, président de Renaissance Numérique ; Kristina Wilfore, professeure auxiliaire à la Elliott School of International Affairs de l’Université George Washington ; Romain Badouard, maître de conférences en sciences de l’information et de la communication, Université Paris 2 Panthéon-Assas.