Protéger la démocratie de la désinformation : Menaces normatives et réponses politiques

Auteur : Chris Tenove

Université d’attache : Chercheur postdoctoral, Université de la Colombie-Britannique

Niveau d’études : Doctorat en science politique (2015), Université de la Colombie-Britannique

Remerciements : Merci à Jordan Buffie, Spencer McKay, Fenwick McKelvey et Heidi Tworek, pour des discussions intéressantes lors de l'élaboration de ce document, et à Jordan Buffie pour son aide à la recherche. Le document a également bénéficié des commentaires des participants à l'atelier Digital Threats to Democracy, organisé par le conseil de recherche Social Science Research Council en juin 2019.

Une version révisée de cet article est publiée dans le journal international International Journal for Press / Politics : https://journals.sagepub.com/doi/10.1177/1940161220918740.

Résumé

À la suite des révélations publiques concernant l’ingérence dans les élections de 2016 aux États-Unis, il y a eu une inquiétude généralisée selon laquelle la désinformation en ligne constitue une menace sérieuse à la démocratie. Les gouvernements ont répondu par un vaste éventail de politiques. Toutefois, il existe un flou dans les débats politiques de l’élite ou dans la littérature universitaire de ce que signifie exactement la désinformation qui met en danger la démocratie et de la façon dont les différentes politiques pourraient la protéger. Le présent article propose que les stratégies pour lutter contre la désinformation visent à défendre trois biens normatifs importants des systèmes démocratiques : l’autodétermination, la représentation responsable et la délibération publique. Les réponses politiques qui visent à protéger ces biens relèvent généralement de trois secteurs de gouvernance correspondants : l’autodétermination est au centre des politiques de sécurité nationale et internationale; la représentation responsable est traitée par la réglementation électorale; et les menaces à la qualité du débat public et de la délibération sont contrées par la réglementation des médias. L’article révèle également certains des défis et des risques dans ces secteurs des politiques qu’on observe dans l’élaboration des politiques novatrices et l’échec des politiques.

Mots clés

désinformation en ligne, démocratie, campagne électorale, loi sur les médias, Internet, élaboration des politiques

Introduction

Depuis les élections de 2016 aux États-Unis, les décideurs politiques, les experts et les citoyens ont exprimé leur inquiétude quant à la possibilité que la désinformation en ligne menace la démocratie. Le sénateur américain Chuck Schumer a déclaré au Congrès que l’ingérence de la Russie dans les élections a été une attaque contre la démocratie elle-même (2019 : S2776). Au cours de l’année qui a suivi les élections de 2016 aux États-Unis, au moins 17 pays ont vu des élections entachées de désinformation, nuisant à la capacité des citoyens de choisir leurs dirigeants sur la base de nouvelles factuelles et d’un débat authentique (Freedom House, 2017 : 1). Les entreprises de médias sociaux sont souvent considérées comme faisant partie du problème : lors de l’assemblée annuelle des actionnaires de Facebook en 2018, un avion volait avec une banderole où il était écrit en anglais « VOUS AVEZ BRISÉ LA DÉMOCRATIE » (Osnos, 2018).

Les sondages d’opinion publique dans de nombreux pays montrent que les citoyens craignent que la démocratie ne soit menacée. Un sondage en Europe a révélé que 83 % des personnes pensent que la démocratie est menacée par de fausses nouvelles (Commission européenne, 2018a : 4); à Taïwan, 67,5 % des personnes craignent que la désinformation puisse nuire gravement à la démocratie du pays (Taïwan Foundation for Democracy, 2019); et aux États-Unis, 68 % des Américains désignent les « nouvelles inventées » comme une menace importante à la confiance dans le gouvernement et comme un problème plus grave que le terrorisme, le racisme ou les changements climatiques (Stocking, 2019)Note de bas de page i.

En réaction à ces préoccupations, les gouvernements ont proposé ou adopté un vaste éventail de mesures. « Si nous ne réglementons pas Internet », a affirmé le président français Emmanuel Macron (2018), « le risque est de bouleverser les fondements de la démocratie ». Les réponses politiques vont des cyberopérations offensives ciblant les acteurs de la désinformation aux nouvelles réglementations pour les plateformes de médias sociauxNote de bas de page ii. Toutefois, il existe un flou dans les débats politiques de l’élite ou dans la littérature universitaire de ce que signifie exactement la désinformation qui menace la démocratie et de la façon dont les différentes politiques pourraient la protéger, ou la mettre en danger. Pour préciser ces débats, cet article apporte deux contributions qui s’inspirent d’un sondage initial sur les réponses politiques liées à la désinformation de dix pays démocratiques et de l’Union européenne.

D’abord, en misant sur les récents cadres systémiques de la théorie démocratique, je détermine trois biens normatifs des systèmes démocratiques que les décideurs politiques ont explicitement ou implicitement affirmé être menacés par la désinformation. Ils comprennent l’autodétermination des politiques par leurs propres citoyens; la représentation responsable grâce à des élections équitables; et la délibération publique favorisant la formation d’opinions et de volontés. Même si ces biens sont interreliés, chacun met en évidence un aspect différent des systèmes politiques démocratiques qui peut être touché par la désinformation, nécessitant des réponses politiques différentes.

Ensuite, je soutiens que les menaces à l’autodétermination sont principalement traitées par des politiques de sécurité à l’échelle nationale et internationale; les menaces à la représentation démocratique sont principalement traitées par une nouvelle réglementation électorale; et les menaces de délibération sont principalement traitées par la réglementation des médias. Alors que les chercheurs dans le domaine de la communication ont tendance à se concentrer sur la réglementation des médias, la plupart des gouvernements ont adopté ou proposé des réglementations dans les trois secteurs des politiques, et des politiques dans les trois secteurs ont des implications pour les organes de presse et les entreprises de médias sociaux. L’analyse comparative des politiques révèle certains des défis liés à l’élaboration de politiques dans ces domaines, principalement en raison de l’emprise réglementaire, ainsi que des exemples des élaborations de politiques novatrices et problématiques.

Enfin, je conclus en déterminant les principales implications de cette analyse pour l’élaboration et l’évaluation des politiques pour lutter contre la désinformation.

Analyser les réponses politiques liées à la désinformation

Les révélations d’opérations de communication fausses, trompeuses et étrangères pendant les élections, et en particulier lors des élections de 2016 aux États-Unis, ont sans doute fonctionné comme un « choc public » à l’égard de la gouvernance des médias numériques. Ananny et Gillespie définissent les chocs publics comme des cas dans lesquels un incident a suscité des critiques d’une plateforme suffisante pour atteindre une visibilité publique distincte, a contesté le fonctionnement ou les effets fondamentaux d’une plateforme et a mis au défi les propriétaires de plateforme pour qu’ils se comportent différemment (2017 : 3). Un grand nombre de gouvernements ont réagi en prenant des mesures pour protéger la démocratie de la désinformation. Toutefois, comme dans d’autres cas de gouvernance des médias au moyen du choc public, l’indignation initiale a déclenché des débats sur les élaborations de politiques qui ont dû se pencher sur la complexité, les intérêts bien ancrés et la politisation.

Dans les débats et les documents actuels liés à l’élaboration de politiques, la désinformation fait généralement référence à des tactiques de communication volontairement fausses ou trompeuses que les acteurs utilisent pour faire avancer leurs objectifs politiques ou économiques. Dans un rapport très important, Wardle et Derakhshan (2017) mettent en contraste la « désinformation », se référant à une communication volontairement fausse ou trompeuse, avec « mésinformation », qui désigne une communication qui peut contenir de fausses déclarations, mais qui n’est pas destinée à nuire (comme la satire ou des erreurs accidentelles). Le terme « désinformation » a aussi gagné du terrain parce qu’il a longtemps été utilisé pour analyser les opérations d’information de la Russie. En effet, certaines réponses politiques des gouvernements occidentaux à la désinformation en ligne ont été greffées sur des approches déjà établies pour traiter les opérations de communication stratégique de la Russie.

Certains décideurs politiques utilisent des termes apparentés pour la désinformation, comme « opérations d’information » et « manipulation d’information » (voir, par exemple, Assemblée nationale 2018; Facebook 2017; OTAN StratCom 2016). Le terme « désinformation » est de plus en plus considéré comme préférable à « fausses nouvelles ». Comme l’a soutenu le groupe d’experts de haut niveau de la Commission européenne sur les fausses nouvelles et la désinformation en ligne (2018 : 10–11), les « fausses nouvelles » ne décrivent pas correctement les nombreuses formes de communication trompeuse en ligne, qui vont au-delà des fausses nouvelles pour inclure des images manipulées et des vidéos, mélanges de faits et de mensonges, et l’utilisation trompeuse de comptes faux ou automatisés. De plus, certains politiciens et leurs partisans se sont approprié de « fausses nouvelles », qui utilisent le terme pour nier la couverture qu’ils trouvent désagréable, et elles sont ainsi devenues une arme avec laquelle de puissants acteurs peuvent interférer dans la circulation de l’information, et attaquer et miner les médias d’information indépendants (ibid. : 10; voir aussi comité du Numérique, de la Culture, des Médias et du Sport, 2018).

Un premier récit important sur la désinformation lors des élections de 2016 aux États-Unis a conclu que les acteurs étrangers ont joué un rôle prépondérant dans la dégradation de l’intégrité électorale par la diffusion de faux messages sur les plateformes de médias sociaux. Toutefois, une analyse ultérieure a montré que les candidats politiques nationaux, les journalistes et les citoyens jouaient un rôle primordial dans la promotion de la désinformation, et ils le faisaient souvent pour faire avancer les intérêts partisans (Benkler et coll., 2018; Guess et coll., 2018; Watts & Rothschild, 2017). Pour cette raison et d’autres, l’élaboration de politiques pour lutter contre la désinformation est de plus en plus politisée. Il est évident que les réponses politiques liées à la désinformation, notamment les décisions de certains décideurs politiques de ne pas traiter l’enjeu, peuvent avantager ou désavantager différentes factions politiques. Il existe également d’importantes réserves quant à l’incidence des politiques de désinformation sur la liberté d’expression, une préoccupation amplifiée par des pays répressifs qui utilisent ces lois pour attaquer les journalistes et les opposants politiques. Il est donc important d’apporter une analyse normative rigoureuse aux affirmations générales sur la manière dont la désinformation ou les politiques de désinformation marquent la démocratie.

Méthode : Théorie démocratique et analyse politique

Une plus grande clarté conceptuelle concernant les menaces démocratiques posées par la désinformation comporte deux avantages. La première consiste à améliorer l’analyse empirique en précisant les processus démocratiques, les institutions ou les résultats menacés. Des études empiriques sur l’incidence de la désinformation dans la démocratie utilisent souvent différentes définitions de la désinformation (comme variable indépendante) et différentes variables dépendantes, comme les incidences sur la formation des préférences des électeurs individuels, les flux de communication dans les systèmes d’information, l’intégrité électorale, les résultats des élections ou la confiance dans les médias et autres institutions politiques (voir, par exemple, Allcott et Gentzkow, 2017; Benkler et coll., 2018; Guess et coll., 2018). On peut le voir dans l’observation de Karpf (2017) selon laquelle les chercheurs peuvent affirmer que les publicités relativement petites achetées par des acteurs appuyés par la Russie n’ont sans doute pas influencé l’opinion publique pour faire basculer les élections de 2016 aux États-Unis, et que ces infractions à la loi électorale ont été une attaque grave aux processus démocratiques. Différentes formes et incidences de la désinformation méritent d’être étudiées, mais les chercheurs devraient bien cerner les variables sur lesquelles ils se concentrent.

Ensuite, les différentes conceptions de la menace démocratique posée par la désinformation peuvent être utilisées pour élaborer et justifier des politiques très différentes. Les affirmations et les hypothèses normatives sont au cœur de l’élaboration de politiques (Goodin, Rein, and Moran 2006), et les spécialistes du journalisme et des médias ont été invités à approfondir la théorie normative, et, en particulier, la théorie démocratique (Christians et coll., 2010; Karppinen, 2013).

Cet article fait donc appel à la théorie démocratique afin de cerner les biens normatifs fondamentaux explicitement ou implicitement déterminés dans les réponses liées à la désinformation. Je le fais en analysant les documents liés à l’élaboration de politiques et les débats de l’Union européenne et de dix pays démocratiques : Australie, Canada, Danemark, France, Allemagne, Italie, Suède, Taïwan, Royaume-Uni et États-Unis. Des cas ont été choisis pour inclure des pays ayant des systèmes de médias différents, sur la base des classifications proposées par Hallin et Mancini (2004) et par Brüggemann et coll. (2014). Taïwan est inclus comme une démocratie non occidentale faisant face à d’importantes menaces de désinformation, et l’Union européenne comme acteur politique principal ayant une grande influence sur les politiques des pays européens. Ces pays ont été choisis en raison de la variation du système médiatique en espérant que cela produirait plus de variation dans les réponses politiques à une analyse, car les différents types de systèmes médiatiques présentent différentes formes de réglementation gouvernementale. Cet article ne vise pas à défendre les types de systèmes de médias particuliers qui tendent vers des réponses particulières liées à la désinformation, bien que cette hypothèse mérite d’être étudiée.

Les données sur les propositions normatives, les formes organisationnelles et les bases juridiques des politiques viennent de plus de 100 sources, notamment des documents de politique originaux, des études gouvernementales, des rapports universitaires et de groupes de réflexion importants et des articles de presse (principalement en anglais ou en français, certains en utilisant un logiciel de traduction). Selon la méthode de Kreiss et coll. (2018), l’analyse s’est déroulée en basculant entre la détermination des catégories émergentes dans les données et l’engagement envers des concepts issus de la théorie démocratique et des études médiatiques. Cette analyse diffère de la proposition d’un cadre normatif autonome, déduit de la théorie normative existante, et elle diffère aussi de la dérivation inductive des affirmations normatives par l’analyse du discours. Au contraire, mon approche est abductive (Feilzer, 2010) parce que j’ai déterminé les biens démocratiques menacés et les secteurs des politiques clés impliqués en alternant entre l’analyse des documents de politique et l’interprétation en utilisant des concepts théoriques alternatifs. Il s’agit donc d’une analyse normative « non idéale », qui fonctionne entre des modèles idéaux abstraits et un simple descriptivisme empirique, [et] qui peut fonctionner comme une ressource conceptuelle pour évaluer, déterminer et stimuler différentes manières, institutions, politiques et circonstances existantes qui peuvent promouvoir des objectifs importants comme la communication démocratique (Karppinnen, 2019 : 73).

L’analyse normative de cet article s’appuie sur des approches systémiques de la théorie démocratique (p. ex., Habermas, 1996; Mansbridge et coll., 2012; Warren, 2017). Les approches systémiques articulent les biens normatifs clés qu’un système politique doit promouvoir pour qu’il soit démocratique, mais ne dictent pas quel bien justifie la primauté. Ce document utilise généralement le cadre de Warren (2017), qui propose qu’un système politique fasse trois choses pour faire avancer l’engagement démocratique fondamental que le peuple devrait gouverner lui-même. Il permet de renforcer l’inclusion de membres individuels dans les décisions qui les concernent (comme le droit de voter aux élections, de s’organiser pour des causes ou de contribuer aux débats publics sur des enjeux politiques); d’élaborer de programmes et de volontés collectives (comme une communication qui permet aux personnes de voir comment leurs préférences individuelles sont liées aux jugements collectifs); et de prendre des décisions collectives (comme des élections contraignantes). Ces fonctions de base des systèmes démocratiques peuvent être favorisées par différents ensembles d’institutions et de pratiques, qui interagissent de manière complexe. Par exemple, le vote permet aux citoyens de sélectionner des représentants, de les obliger à rendre compte de leurs performances et de leur donner les moyens de prendre des décisions au nom du collectif, ce que j’appelle le bien démocratique de la « représentation responsable ».

Cette analyse diffère un peu de deux approches courantes dans la recherche en communication politique. Une approche applique un « modèle » particulier de démocratie, comme la démocratie délibérative ou participative (pour un sondage, voir Karppinen, 2013). Chaque « modèle » met l’accent sur une constellation singulière d’institutions, de pratiques et d’objectifs normatifs. Toutefois, les démocraties actuelles poursuivent de multiples objectifs normatifs par de multiples institutions et pratiques. Une autre approche courante consiste à se concentrer sur le rôle des citoyens comme consommateurs de médias et participants démocratiques, tels que les citoyens « informés » ou « surveillants » (Schudson, 1998). Une telle analyse est utile pour formuler des idéaux de réglementation pour les institutions et les citoyens, et évaluer leur réalisation dans la pratique (voir, par exemple, Ytre-Arne et Moe, 2018). Toutefois, elle néglige les activités démocratiques clés au-delà de celles des citoyens moyens, comme le travail des organes de gestion des élections ou des agences de sécurité nationale.

En utilisant les concepts des théories systémiques de la démocratie pour interpréter les documents liés à l’élaboration des politiques et les débats, je cerne trois biens normatifs clés en cause. Ce sont l’autodétermination, la représentation responsable et les processus délibératifs de formation d’opinions et de volontés. Chacune des sections suivantes précise l’un de ces biens démocratiques et les risques auxquels ils sont confrontés en raison de la désinformation en ligne, examine les réponses politiques qui étaient sans doute conçues pour faire face à ces risques et détermine les défis posés par de telles politiquesNote de bas de page iii.

Protéger l’autodétermination : Politiques de sécurité nationale et internationale

Le chef de l’organisme de renseignement M16 du Royaume-Uni a affirmé en 2016 que la propagande en ligne et les cyberattaques représentaient une menace fondamentale pour notre souveraineté. Cela devrait être une préoccupation pour tous ceux qui partagent des valeurs démocratiques (MacAskill, 2016). De nombreux gouvernements et décideurs politiques ont fait écho à cette préoccupation selon laquelle la désinformation menace la démocratie, car elle porte atteinte à la sécurité nationale et, dans le contexte international, à la souveraineté. Cette section soutient que les biens normatifs de l’« autodétermination » précisent cette compréhension des menaces à la sécurité et à la souveraineté comme menaces à la démocratie. Elle examine ensuite les récentes politiques internationales et nationales de sécurité concernant la désinformation et souligne les risques démocratiques de traiter la désinformation comme une menace à la sécurité.

Désinformation comme une menace à l’autodétermination

De l’Athènes antique aux États-Unis en passant par les luttes de décolonisation du XXe siècle, les dirigeants politiques et les théoriciens ont soutenu que pour qu’un peuple puisse se gouverner, il doit être libre de toute domination extérieure, ainsi que de la domination des dirigeants ou des élites nationales (Gould, 2006; Habermas, 1996; Young, 2000 : Chap. 7). Cette conviction est souvent appelée autodétermination. La désinformation est une attaque contre l’autodétermination démocratique si elle mine ou cherche à miner la capacité d’un peuple démocratique à édicter les règles collectives qu’il s’est données, ou si elle compromet les habilitations sélectives qui permettent aux citoyens de contribuer à se donner des règles (comme le droit de voter à des élections équitables ou de contribuer librement au discours public sur les enjeux politiques)Note de bas de page iv. Les préoccupations au sujet de l’autodétermination se concentrent donc sur la manière dont la désinformation, en particulier de la part d’acteurs étrangers, peut inclure ou exclure, de façon inappropriée, des personnes des processus démocratiques, notamment des processus comme les élections et les délibérations publiques, qui seront examinées plus tard.

Cela signifie-t-il que toute influence étrangère constitue une menace pour l’autodétermination? De nombreux théoriciens démocratiques contemporains sont en désaccord, faisant valoir que les non-citoyens ou les étrangers devraient influencer les processus démocratiques des pays, car dans une mondialisation, les mesures d’un pays peuvent avoir des conséquences importantes pour les habitants d’autres pays (voir, par exemple, Gould, 2006; Young, 2000 : Chap. 7). Toutefois, il peut certainement y avoir des limites justifiables à l’influence des acteurs étrangers, en particulier, si elles sont nécessaires pour protéger les habilitations sélectives conférées aux citoyens. Comme le soutient Gould, même si l’interdépendance mondiale actuelle signifie que la souveraineté au sens fort n’est plus applicable (2006, 51), le bien démocratique de l’autodétermination limite les formes justifiables de participation étrangère.

Politiques de sécurité internationales pour lutter contre la désinformation

Le droit international existant ne fournit pas de lignes directrices précises qui permettent aux pays de répondre aux campagnes de désinformation étrangères, même celles qui ont lieu pendant les élections (Hollis, 2018; Ohlin, 2017). Les atteintes à la cybersécurité qui perturbent les activités essentielles des pays peuvent être considérées comme des infractions à la souveraineté des pays qui justifient des représailles étatiques coercitives, sur la base de la légitime défense selon l’article 51 de la Charte des Nations Unies. Toutefois, alors que les cyberopérations qui ciblent l’infrastructure physique ou les systèmes de données peuvent clairement nuire aux fonctions étatiques, il est beaucoup plus difficile de soutenir cet argument concernant la désinformation, car cela a une incidence sur les croyances, les émotions et les processus cognitifs des personnes. Le droit international, observe Hollis (2018 : 44), est un instrument inefficace pour réglementer des activités définies principalement par leur lien avec la dimension cognitive. Il y a beaucoup d’incertitude sur les éléments de preuve, la causalité et les motivations que tout nouveau droit pourrait bien s’avérer inefficace dès le départ. De plus, le droit international coutumier ne semble pas interdire les opérations d’information pour influencer les élections d’un autre pays, car les pays l’ont régulièrement fait sans provoquer de représailles coercitives.

Bien que les gouvernements n’aient pas proposé de nouveaux traités pour lutter contre la désinformation étrangère, ils ont créé de nouvelles politiques opérationnelles qui traitent la désinformation comme une menace à la sécurité. L’alliance de l’Organisation du Traité de l’Atlantique Nord (NATO) et ses institutions ont désigné la désinformation comme un aspect clé de la « guerre hybride » et coordonnent de plus en plus leurs capacités militaires et de renseignement pour y faire face (OTAN StratCom, 2016). Le groupe des sept (G7) a créé la « Déclaration de Charlevoix en matière d’égalité et de croissance économique », qui comprend un mécanisme de réponse rapide pour coordonner les services de renseignement et de police des pays afin de mieux déterminer et contrer la désinformation et l’ingérence électorale (Gouvernement du Canada, 2019). La coopération internationale la plus active de désinformation étrangère a lieu au sein de l’Union européenne (Union européenne, 2018a). Les initiatives se concentrent sur la coordination du secteur de la sécurité, ainsi que sur les réglementations des médias et des élections examinées plus tard.

Réponses politiques de sécurité nationale

Les gouvernements comptent sur leurs secteurs de sécurité nationale pour lutter contre la désinformation en ligne par des acteurs étrangers ou nationaux. Les mesures de sécurité nationale peuvent prendre diverses formes, allant de l’application du droit pénal à la collecte de renseignements en passant par des cyberopérations offensives.

À titre d’exemple, le Canada a créé un groupe de travail intergouvernemental pour coordonner les agences de renseignement, la Police fédérale et le ministère des Affaires étrangères afin de lutter contre la désinformation (pour un aperçu des politiques canadiennes sur la désinformation, voir Tenove et Tworek, 2019). Il a aussi créé un groupe d’experts non partisan pour avoir des séances d’information sur le renseignement pendant les campagnes électorales et décider s’il est nécessaire d’informer les élus ou le grand public sur l’ingérence électorale. Le groupe d’experts aborde les craintes que, dans un contexte d’une campagne électorale, ni les agences de sécurité elles-mêmes ni le parti au pouvoir ne peuvent faire connaître l’ingérence sans s’inquiéter de le faire pour polariser de manière illégitime le résultat des élections.

Comme le Canada, les pays nordiques ont élaboré des plans de sécurité nationale complets pour lutter contre la désinformation étrangère (Cederberg, 2018; gouvernement du Danemark, 2018). Ces plans comprennent des éléments de cybersécurité et de renseignement, mais ils mettent également l’accent sur la connaissance des médias et la résilience publique. Par exemple, chaque ménage suédois a reçu une brochure d’urgence nationale qui contenait des renseignements sur les campagnes de désinformation (Jeangène Vilmer et coll., 2018 : 120), et le ministère suédois de la Défense communique fréquemment des renseignements aux médias, notamment par les conseils courants de préparation aux médias (Cederberg, 2018 : 23–24). Les gouvernements nordiques ont également mis l’accent sur la communication stratégique du secteur de sécurité (Pamment et coll., 2019), une tactique que l’Union européenne a principalement assignée au groupe de travail sur la communication stratégique de l’Est.

Enfin, les agences militaires et de renseignement ont envisagé ou utilisé des cyberopérations offensives pour lutter contre la désinformation en ligne, comme le piratage et les opérations de contre-information. Par exemple, pour faire face à une interférence potentielle lors de ses élections de mi-mandat de 2018, l’armée américaine a temporairement bloqué l’accès à Internet à la firme russe responsable des campagnes de désinformation lors des élections de 2016 (Nakashima, 2019).

Défis des réponses de sécurité à la désinformation

Il est souvent logique de traiter la désinformation comme une menace à la sécurité nationale. Les tactiques de désinformation pourraient miner la capacité d’un peuple à mettre en œuvre ses décisions au moyen de son gouvernement démocratique (comme fabriquer des ordres de fonctionnaires), ou compromettre la capacité d’un peuple à contribuer à l’établissement des règles (comme faire circuler des renseignements sur une catastrophe naturelle un jour de vote). De plus, les gouvernements étrangers peuvent mobiliser d’importantes ressources, et les gouvernements peuvent donc également avoir besoin de maîtriser leurs capacités pour les contrer. En effet, seules les agences de sécurité du pays disposent du renseignement d’origine électromagnétique et de l’intelligence humaine nécessaire pour découvrir des campagnes de désinformation coordonnées et secrètes.

Toutefois, les agences de sécurité ont des relations tendues avec la démocratie. Leur ingérence dans les affaires politiques nationales peut conduire à une influence excessive dans les processus démocratiques par le parti au pouvoir ou par les agences de sécurité elles-mêmes. Une logique de sécurité nationale peut indûment interpréter les communications fausses ou partiellement fausses comme des risques pour la sécurité et non comme des occasions de correction et de débat. Comme l’observent Farrell et Schneier, les cadres de sécurité nationale ont tendance à considérer les occasions de communication litigieuse comme des vulnérabilités et non comme vertus : Cela signifie que l’approche de la sécurité nationale a d’énormes difficultés à évaluer les compromis appropriés qui sont nécessaires pour garantir le bon fonctionnement d’une démocratie (2018 : 5).

De plus, une approche axée sur la sécurité nationale peut déplacer l’élaboration de politiques et, en particulier, l’application des politiques vers des agences gouvernementales qui sont sans doute sous un contrôle démocratique plus faible que d’autres. Les agences de sécurité nationale de nombreux pays sont généralement soumises à une surveillance et à une responsabilisation limitées, et sont historiquement séparées des citoyens par le secret, la hiérarchie et un pouvoir exécutif pratiquement incontrôlé (Deibert, 2018 : 413). Cet enjeu se manifeste dans les luttes des organisations de journalisme pour faire rapport sur les agences de sécurité, même dans les pays avec de solides mesures de protection pour une presse libre (Lidberg et Muller, 2018).

Enfin, les politiques de sécurité nationale peuvent mettre de façon injustifiée l’accent sur l’étranger au moment de déterminer s’il faut prendre des mesures relatives à la désinformation. Il existe de bonnes raisons d’inclure les opinions des non-citoyens dans certaines discussions politiques, et l’accent mis sur l’étranger peut identifier des personnes qui sont des membres légitimes d’un régime démocratique, mais dont les opinions ou les modèles linguistiques diffèrent de ceux de la majorité. Le risque est que, comme une réponse immunitaire hyperactive à un agent pathogène, les réponses de sécurité nationale aux communications étrangères puissent être utilisées pour museler les communications nationales ou transnationales légitimes.

L’abus des lois sur la sécurité nationale contre la désinformation par les pays répressifs est bien documenté (Henley, 2018), mais des inquiétudes ont aussi été exprimées au sujet des politiques de sécurité dans les démocraties. Un exemple est la réponse de Taïwan à d’éventuelles activités de désinformation de la Chine. À l’approche des élections de 2020, Taïwan a adopté la loi anti-infiltration qui cible les ingérences étrangères par la désinformation, le lobbying et d’autres moyens (Aspinwall, 2020). Le gouvernement a également fait pression sur sa National Communications Commission pour sévir contre les agences de presse nationales au sujet des reportages faux et partiaux qui pourraient accroître l’influence de la Chine. L’ancienne présidente de la Commission, qui aurait démissionné parce qu’elle n’était pas d’accord avec cette répression, a affirmé : « Le gouvernement dit que la désinformation est l’ennemi d’une société ouverte et démocratique […] Mais, nous ne voulons pas perdre cette société ouverte en la combattant » (ibid.) [traduction].

Protéger la responsabilisation et la représentation : Réglementation électorale

Les gouvernements qualifient souvent la désinformation de menace à l’intégrité électorale et donc à la démocratie. Par exemple, la Commission européenne (2018b : 1) a indiqué que les périodes électorales se sont révélées particulièrement propices à la désinformation ciblée. Ces attaques nuisent à l’intégrité et à l’équité du processus électoral et à la confiance des citoyens dans leurs représentants : elles remettent véritablement en cause la démocratie elle-même. Cette section précise les biens démocratiques en cause dans l’ingérence électorale, détermine les politiques récentes et souligne certains risques et limites de ces efforts, en particulier en ce qui concerne la réglementation du contenu et l’amplification de la communication pendant les élections.

Désinformation comme une menace à un gouvernement responsable et représentatif

Les élections ne sont pas elles-mêmes un bien normatif. Elles sont plutôt des processus de base pour atteindre le bien démocratique d’une représentation responsable. Les élections qui ne progressent pas sont des procédures vides, comme on le constate dans les élections menées par des régimes autoritaires.

Les élections démocratiques permettent aux citoyens de choisir leurs représentants politiques, de créer des organes représentatifs qui peuvent participer aux délibérations et aux négociations, et de demander souvent des comptes à leurs représentants et au gouvernement élu relativement à une conduite antérieure (Manin, 1997; Przeworski, 1999). Pour que les élections fassent la promotion de ces biens, il doit y avoir un choix et une concurrence équitable entre les représentants potentiels, tous les citoyens doivent avoir la possibilité de choisir un représentant et des forums de communication doivent exister pour que les citoyens puissent obtenir des renseignements supplémentaires sur les représentants potentiels et participer à des « conversations » générales avec eux (Young, 2000 : 121–128).

Les campagnes de désinformation en ligne peuvent cibler des éléments importants des élections qui font progresser la représentation et la responsabilisation démocratiques. Il pourrait s’agir de fausses déclarations sur où, quand et comment voter, comme celles diffusées par des acteurs appuyés par la Russie à certains groupes démographiques lors des élections américaines de 2016 (DiResta et coll., 2018 : 8). Les campagnes de désinformation peuvent aussi nuire à une concurrence équitable entre les candidats et les partis, comme les fausses histoires ciblant le candidat à la présidence Macron lors des élections françaises de 2017 (Jeangène Vilmer et coll., 2018 : 106–111). De plus, les acteurs étrangers et nationaux peuvent enfreindre les interdictions ou les limites des dépenses de campagne, notamment en utilisant de faux comptes pour acheter et diffuser des renseignements sur les plateformes de médias sociaux (Chaynowsky, 2017). Ces efforts et d’autres peuvent miner l’autodétermination ainsi que l’intégrité des élections, en particulier si les acteurs étrangers nuisent aux pouvoirs et aux processus qui permettent aux membres d’une entité politique de contribuer à se gouverner eux-mêmes.

Réglementation électorale pour lutter contre la désinformation

Les campagnes de désinformation pendant les élections ont révélé des faiblesses dans la réglementation électorale, notamment concernant les activités sur les plateformes de médias sociaux. Dans un commentaire qui pourrait s’appliquer à de nombreux pays, un comité parlementaire britannique a déclaré [traduction] : « La loi électorale de ce pays n’est pas adaptée à l’ère numérique et doit être modifiée pour refléter les nouvelles technologies » (Comité du Numérique, de la Culture, des Médias et du Sport, 2018 : 15). Depuis 2016, de nombreux gouvernements ont proposé ou adopté des politiques afin de répondre à ces faiblesses.

L’utilisation la plus simple de la désinformation pour miner l’intégrité électorale est de diffuser de faux renseignements sur les processus de vote, les candidats ou les enjeux électoraux. Alors que certains gouvernements avaient déjà des lois pour lutter contre certaines fausses communications dans le contexte des campagnes électorales, celles-ci n’ont pas été conçues pour la situation où les acteurs peuvent diffuser largement, rapidement et discrètement des déclarations trompeuses par les plateformes de médias sociaux.

La France a mis en place certaines des politiques électorales les plus persuasives pour lutter contre les faux renseignements en ligne lors des élections. Les lois préexistantes luttent contre les communications fausses et fabriquées en ciblant leur créateur ou leur propagateur; elles étaient mal adaptées aux situations où les auteurs et diffuseurs des messages peuvent demeurer inconnus (Smith, 2019). La nouvelle législation permet aux juges de recevoir des plaintes au sujet de faux renseignements en ligne et, s’ils enfreignent la loi, d’ordonner leur suppression immédiate par les entreprises de médias sociaux ou les fournisseurs de services Internet (Assemblée nationale, 2018). De plus, l’agence de radiodiffusion française a été autorisée à suspendre ou à résilier les services des diffuseurs influencés par des pays étrangers, s’ils diffusaient de faux renseignements susceptibles de porter atteinte à l’intégrité électorale. La législation oblige également les plateformes de médias sociaux à divulguer les paiements effectués pour promouvoir les messages lors des élections et à créer des mécanismes qui permettent aux utilisateurs de prévenir les entreprises et les autorités gouvernementales au sujet des faux renseignements liés aux élections.

En plus de diffuser de faux renseignements, les acteurs de la désinformation ont enfreint la lettre ou l’esprit de la réglementation sur le financement électoral (p. ex., Chaynowsky, 2017; Karpf, 2017). Ces lois s’appliquent à la façon dont les ressources sont acquises et déployées lors des élections, souvent pour amplifier le message électoral. Depuis 2016, les gouvernements ont précisé et renforcé les lois, notamment à l’égard des acteurs étrangers. Par exemple, le gouvernement de l’Australie a adopté l’Electoral Funding and Disclosure Reform Act et la Foreign Influence Transparency Scheme Act, en grande partie à cause des craintes d’activités d’influence de la Chine (Douek, 2018).

Les gouvernements ont également adopté des politiques qui visent à améliorer la transparence de la publicité politique, notamment par la création d’archives publicitaires accessibles au public. L’amélioration de la transparence devrait augmenter la probabilité que les citoyens, les organisations de surveillance et les organismes de réglementation détectent les publicités fausses ou illégales, même lorsqu’elles sont microciblées vers des segments précis de l’électorat. Le Canada et la France ont introduit des lois qui obligent les entreprises de médias sociaux à créer des référentiels publicitaires; le Code de bonnes pratiques contre la désinformation de l’Union européenne engage les signataires (qui incluent toutes les principales entreprises de médias sociaux) à créer des référentiels publicitaires; et des comités parlementaires au Royaume-Uni et aux Pays-Bas ont proposé une réglementation pour exiger des archives publicitaires (Leerssen et coll., 2019). Une proposition semblable aux États-Unis, la Honest Ads Act, est au point mort malgré l’appui des deux partis. Facebook et d’autres entreprises de médias sociaux ont réagi en créant des archives de publicités politiques, y compris aux États-Unis. Dernièrement, compte tenu des préoccupations croissantes concernant la justesse et le ciblage des publicités politiques, Twitter a annoncé qu’elle n’autoriserait pas la publicité politique explicite, Google limiterait le ciblage des publicités politiques et effectuera la vérification des faits de certaines demandes publicitaires et Facebook continuera d’autoriser le ciblage et n’effectuera pas la vérification des faits des publicités politiques (Ingram, 2020).

Défis de la réglementation électorale pour lutter contre la désinformation

Même avant l’essor des plateformes de médias sociaux, la réglementation électorale dans de nombreux pays avait du mal à faire face aux faux renseignements dans les émissions, les publications et les publicités, et n’avait pas réussi à faire respecter les limites des dépenses électorales et les mesures de transparence. Ces défis augmentent lorsque l’attribution est difficile, comme c’est souvent le cas pour les activités liées à la désinformation sur les plateformes de médias sociaux. L’attribution est nécessaire pour l’application et donc pour la dissuasion. Elle est aussi nécessaire pour les politiques qui cherchent à appliquer des règles différentes aux entités étrangères et nationales. Cela veut dire que la réglementation électorale est souvent accompagnée d’efforts accrus visant à protéger la sécurité nationale qui tentent de déterminer les activités étrangères, comme l’ont fait des gouvernements comme l’Australie, le Canada, le Taïwan et l’Union européenne.

C’est plutôt non controversé pour que les gouvernements interdissent les messages qui pourraient directement conduire à la privation du droit électoral, comme les fausses déclarations sur la façon de voter. Les gouvernements font face à de plus grands défis lorsqu’ils tentent de réglementer le contenu des déclarations concernant les candidats et les enjeux. Une telle réglementation suscite des inquiétudes quant à la liberté d’expression, ainsi que sur les occasions pour les agences gouvernementales d’avoir une incidence indue sur les messages dans le contexte électoral.

Alors que la réglementation de France relative aux fausses déclarations lors des élections semble respecter les dispositions du droit pour protéger la liberté d’expression et éviter l’emprise du gouvernement et du parti au pouvoir (Smith, 2019), les politiques des autres pays sont plus problématiques. Par exemple, en 2018, l’Italie a adopté le protocole de fonctionnement pour la lutte contre la diffusion de fausses nouvelles sur le Web lors de la campagne électorale des élections politiques de 2018, qui a donné à la police postale le pouvoir de déterminer si les déclarations en ligne sont fausses ou biaisées et a recommandé des mesures judiciaires (Versa, 2018). Les experts ont vivement critiqué le fait de donner un rôle discrétionnaire à la police pour évaluer le contenu et agir (ibid.), y compris le rapporteur spécial des Nations Unies pour la protection de la liberté d’expression (Kaye, 2018b) et les organisations de journalisme qui considéraient la loi comme une menace potentielle pour une presse libre (Funke, 2018).

Protéger la délibération : Réglementation des médias

De nombreuses propositions politiques mettent l’accent sur la menace que la désinformation représente pour la qualité du discours et du débat publics. Ces valeurs sont mieux saisies par les analyses des démocraties, comme les systèmes délibératifs. Comme soutient la Commission on Truth, Trust and Technology du London School of Economics (2018 : 12), les démocraties doivent veiller à ce que l’infrastructure de délibération, c’est-à-dire les médias et les systèmes d’information numériques, soit à la hauteur de la tâche pour susciter un dialogue éclairé. Plutôt que de cibler les acteurs de la désinformation eux-mêmes, comme le font la plupart des politiques électorales et de sécurité nationale, les politiques des médias visent à réduire les vulnérabilités des systèmes médiatiques que ces acteurs utilisent.

Désinformation comme une menace à la délibération démocratique

Les théories de la démocratie délibérative suggèrent que les échanges de communication entre les citoyens sont nécessaires pour parvenir à une prise de décision publique bien éclairée et légitime (Habermas, 1996, Young, 2000). Ces échanges communicatifs favorisent ce que les théoriciens appellent parfois la « formation d’opinions » (la création de préférences individuelles relativement éclairées) et la « formation de volontés » collective (pour comprendre les raisons des jugements collectifs). Les théoriciens de la démocratie ont élaboré de plus en plus d’approches systémiques pour comprendre comment les biens normatifs de la délibération peuvent être atteints concrètement. Les approches systémiques n’exigent pas que les citoyens et les fonctionnaires respectent souvent des exigences strictes de délibération. Les gains de la délibération peuvent plutôt être obtenus grâce à une division du travail délibératif entre les différents forums et institutions, produisant à la fois des cas particuliers de délibération et une qualité délibérative générale. Le système qui fonctionne bien comprend des espaces de débat qui sont liés à la prise de décision (comme les parlements et les salles d’audience), et ceux-ci devraient être informés du discours parmi les citoyens dans la sphère publique « sauvage » et en être responsables (Habermas, 1996; voir aussi Dryzek, 2009, Mansbridge et coll., 2012). La délibération dans un système politique, obtenue grâce à des interactions entre des forums interconnectés, devrait promouvoir trois biens normatifs : la qualité épistémique, le respect moral et l’inclusion (Mansbridge et coll., 2012). Les campagnes de désinformation peuvent menacer les trois.

Les campagnes de désinformation peuvent causer un préjudice systémique à la qualité épistémique si elles font la promotion de fausses déclarations à grande échelle ou si elles empêchent les citoyens de consulter des sources d’information de bonne qualité. Par exemple, les acteurs appuyés par la Russie ont favorisé des complots pseudo-scientifiques sur la vaccination, le changement climatique et d’autres enjeux en ligne, tout en attaquant des institutions expertes qui font des déclarations d’information de bonne qualité (DiResta et coll., 2018 : 69). Une autre tactique consiste à favoriser un sentiment d’impuissance à trouver des déclarations justes ou authentiques, un objectif de la stratégie de propagande « lance mensonges » de la Russie (Paul et Matthews, 2016).

Les campagnes de désinformation en ligne visent fréquemment à miner le respect moral envers les groupes sociaux, y compris ceux qui font déjà face à des obstacles à une pleine participation politique (DiResta et coll., 2018; Lewis, 2017; Spaulding et coll., 2018). En plus de cibler les groupes sociaux, la désinformation en ligne comprend de fausses déclarations, des théories du complot, des discours chauvinistes et des images qui attisent la répulsion morale envers les candidats aux élections et les fonctionnaires.

Enfin, les tactiques de désinformation offrent de nouveaux moyens de réduire les occasions d’inclure les personnes dans le discours sur des enjeux qui les touchent de manière importante. Par exemple, les acteurs étrangers ou nationaux peuvent utiliser des robots, de faux comptes, des messages commandités et d’autres techniques pour inonder les forums de communication et étouffer les occasions des individus de contribuer à étayer divers points de vue ou à les exposer (DiResta et coll., 2019; Woolley et Guilbeaut, 2018). (Cela ne signifie pas que les médias numériques peuvent élargir les occasions de certaines personnes de participer à des discussions publiques sur des enjeux politiques, y compris des perspectives qui étaient marginalisées dans les systèmes médiatiques précédents).

Bref, la désinformation peut miner un système délibératif non seulement en augmentant la quantité de fausses déclarations en circulation, mais aussi en diminuant l’intérêt des personnes et l’occasion de participer aux discussions publiques concernant la motivation, le respect et l’inclusivité.

Réglementation des médias sociaux en réaction à la désinformation

Toutes les démocraties réglementent les médias de masse pour renforcer le débat démocratique (Puppis, 2014). Depuis 2016, les gouvernements ont introduit de nouvelles politiques des médias afin de lutter contre la désinformation. Ceux-ci se sont concentrés sur les médias sociaux, parce que les plateformes de médias sociaux étaient des vecteurs importants de désinformation et, surtout, parce qu’il existait des lacunes liées à la réglementation.

La fondation à l’échelle mondiale de la réglementation des médias sociaux est l’article 230 de la 1996 Communications Decency Act des États-Unis. Cette disposition permet aux entreprises de médias sociaux de modérer le contenu que les utilisateurs échangent sur leurs plateformes sans être légalement responsables de ce contenu (à part quelques exceptions). Étant donné que les entreprises de médias sociaux étaient basées aux États-Unis, ce régime était l’approche de réglementation de fait dans la plupart des pays avant 2016. Effectivement, le fait que la réglementation des médias sociaux jusqu’à récemment a été surtout réalisée par les États-Unis est sans doute une infraction à l’autodétermination, dans la mesure où les politiques démocratiques n’ont pas établi et appliqué leurs propres règles sur le discours politique.

Depuis ce temps-là, la réglementation la plus importante des entreprises de médias sociaux a été adoptée par l’Allemagne, avec sa loi « NetzDG » de 2017. La loi exige aux grandes plateformes de médias sociaux d’intervenir rapidement sur les contenus qui enfreignent fort probablement l’une des lois préexistantes de l’Allemagne sur les communications illégales, ou qui risquent une amende pouvant aller jusqu’à 50 millions d’euros (Tworek et Leerssen, 2019). La loi NetzDG ne lutte pas explicitement contre la désinformation, mais elle s’applique à la diffamation, aux techniques de propagande avancées par des entreprises ciblées et aux fausses déclarations qui équivalent à des propos haineux, comme le déni de l’Holocauste. De plus, étant donné que les attaques contre le respect moral peuvent aussi miner la délibération, l’interdiction de la NetzDG des propos haineux peut protéger le système délibératif. Même si l’on craint que la loi encourage les plateformes à se livrer à des suppressions préventives à grande échelle des discours légitimes, il y a peu d’éléments de preuve que cela se produit, quoique d’autres recherches soient nécessaires (ibid.).

L’Union européenne a explicitement ciblé la désinformation en utilisant une approche médiatique co-réglementaire. La Commission européenne a invité les principaux intervenants à élaborer un code de bonnes pratiques contre la désinformation, que toutes les grandes entreprises de médias sociaux ont désormais signé. Le code comprend des engagements pour réduire de faux comptes et des robots, améliorer la transparence de la publicité et améliorer la capacité des utilisateurs à déterminer les sources d’information non fiables et fiables (Forum multipartite sur la désinformation, 2018). L’approche est co-réglementaire plutôt qu’auto-réglementaire, car la Commission européenne a insisté sur des indicateurs et les a évalués afin de déterminer si les entreprises de médias sociaux adhèrent au code, et elle a menacé d’une réglementation plus stricte si ses attentes n’étaient pas satisfaites. Comme exemple de renforcement de l’application d’un code de conduite, l’Australian Competition and Consumer Commission (2019 : 370–372) a proposé qu’un organisme gouvernemental indépendant soit autorisé à enquêter sur les infractions possibles au code de pratique et à imposer des amendes.

Le Royaume-Uni a proposé une approche un peu différente dans son Online Harms White Paper (Parlement du Royaume-Uni, 2019). La politique habiliterait un organisme de réglementation à faire respecter les attentes concernant l’exposition des individus aux préjudices par l’utilisation des médias sociaux. Comme l’ont observé des commentateurs et des organisations de défense de la liberté d’expression, cette approche peut être simple pour lutter contre la communication illégale (comme la pornographie de vengeance ou l’encouragement au suicide), mais de vagues déclarations sur la désinformation et ses préjudices peuvent entraîner un cadre qui enfreint le droit à la liberté d’expression (Pomerantsev, 2019).

En réaction à la pression réglementaire et publique, les entreprises de médias sociaux ont considérablement renforcé l’application de leurs propres conditions de service, notamment l’interdiction des pourriels, des faux comptes et des publicités trompeuses. Ils ont aussi travaillé avec d’autres groupes pour lutter contre la propagation et l’incidence des fausses déclarations. Par exemple, Facebook a créé des partenariats avec des organisations indépendantes de vérification des faits, et cela réduit la possibilité de repérer du contenu que ces organisations déterminent comme étant nettement faux. Il y a des critiques approfondies et valables de ces mesures par Facebook, mais elles semblent avoir une incidence. Des engagements avec des sites de fausses nouvelles semblent avoir considérablement diminué sur Facebook depuis 2016, bien que ce dernier continue de jouer un rôle important dans la diffusion des nouvelles fausses ou trompeuses en ligne (Allcott et coll., 2019).

Défis de la réglementation des médias pour lutter contre la désinformation

La nouvelle réglementation des médias sociaux veille à ce que les entreprises respectent les attentes du gouvernement concernant un comportement problématique des utilisateurs (p. ex., comptes trompeurs, pourriels) et leur contenu (p. ex., fausses déclarations, propos haineux). Ces mesures peuvent avoir un éventail de résultats problématiques. La première crainte est que ces mesures constituent un moyen pour le gouvernement de contrôler indûment la communication des citoyens. Cela risque de limiter la capacité des personnes à exposer des points de vue et à les tester, mais cela pourrait aussi être utilisé pour étouffer les critiques ou obtenir des avantages électoraux injustes. La deuxième crainte est que la réglementation encourage les entreprises de médias sociaux à devenir elles-mêmes juges et agents d’exécution de la réglementation en matière de discours, sans avoir à se conformer aux normes de droit, comme les possibilités de recours. Dans les deux cas, la réglementation des médias sociaux peut menacer la liberté d’expression (ARTICLE 19 2018; Kaye, 2018a).

Un autre risque est que les politiques puissent avoir des conséquences imprévues, peut-être même accroître les possibilités relatives à la désinformation. Une proposition de politique qui pourrait le faire est la « Ending Support for Internet Censorship Act » présentée par le sénateur américain Josh Hawley. La loi priverait les entreprises de médias sociaux de leurs protections en vertu de l’article 230 de la Communications Decency Act, à moins qu’un organisme de réglementation du gouvernement ne les déclare exemptes de parti pris politique. Elle permettrait ainsi à une agence gouvernementale d’être l’arbitre principal du contenu politique. Elle permettrait aussi d’encourager les plateformes à s’abstenir de modérer le contenu faux, trompeur ou abusif, de peur qu’un groupe d’experts du gouvernement n’interprète ces mesures comme un parti pris manifeste. La loi proposée, qui ne sera probablement pas adoptée, constitue un excellent exemple de réglementation boiteuse des médias sociaux pouvant mener à une emprise réglementaire et à une incidence plus forte de la désinformation.

Conclusion

La désinformation en ligne est la priorité des gouvernements démocratiques depuis le « choc public » de l’ingérence en ligne dans les élections aux États-Unis et ailleurs, générant de nombreuses et diverses réponses politiques. Cet article a voulu préciser les différentes manières dont la désinformation pourrait menacer la démocratie, en se concentrant sur les biens normatifs de l’autodétermination, de la représentation responsable et de la délibération publique. En rendant les préoccupations concernant les menaces à la démocratie plus explicites, les chercheurs et les décideurs politiques peuvent préciser clairement et évaluer différents types de préjudices. Ils peuvent aussi formuler des recommandations précises en ce qui concerne les politiques qui visent à traiter ces préjudices. Des réponses de sécurité nationale peuvent être nécessaires pour faire face aux risques des activités essentielles des pays comme l’application des lois électorales, et également pour garantir que les acteurs malveillants, en particulier les pays étrangers, ne minent ni ne déplacent la participation complète et équitable à un système démocratique. La réglementation électorale peut se révéler nécessaire pour protéger les droits démocratiques fondamentaux des citoyens, comme le droit de vote, mais aussi pour empêcher les efforts déployés pour compromettre une concurrence électorale équitable et transparente. La réglementation des médias doit protéger la liberté d’expression dans la sphère publique sauvage, mais doit aussi favoriser des systèmes d’information capables de soutenir une communication épistémologique solide et moralement respectueuse.

L’analyse du présent article souligne également les risques démocratiques posés par les politiques de désinformation elles-mêmes. Ici aussi une clarification conceptuelle s’impose. Les opposants aux politiques de désinformation font trop souvent de vagues déclarations sur leur menace à la liberté d’expression. Comme Karppinen l’a observé, les déclarations selon lesquelles les réglementations minent la liberté d’expression sont souvent mobilisées par les personnes au pouvoir pour bloquer les réformes et clore le débat (2019 : 72), et ont tendance à ignorer les nombreux obstacles qui existent pour utiliser le discours public, y compris de nouvelles positions dominantes et censures algorithmiques (68). Le présent article a fait valoir que les dangers des politiques de désinformation ne sont pas simplement leurs restrictions sur ce que les personnes peuvent dire, mais aussi qu’elles peuvent indûment habiliter les agences gouvernementales, les partis politiques au pouvoir ou d’autres intérêts bien ancrés à influencer la communication à des moments cruciaux (y compris pendant les campagnes électorales).

En même temps, la décision d’un gouvernement de ne pas lutter contre la désinformation peut en soi être une tentative d’habiliter indûment certaines de ces mêmes entités. Une caractéristique frappante des réponses réglementaires liées à la désinformation depuis 2016 est le fait que les États-Unis, le pays qui a connu les campagnes d’ingérence électorale en ligne les plus en vue, n’a pas adopté des réponses réglementaires importantes. Le président américain Donald Trump n’a pas soutenu les politiques visant à lutter contre les tactiques de désinformation qui ont sans doute contribué à son élection, mais a publiquement soutenu des mesures visant à réduire les déclarations de parti pris de gauche dans la modération du contenu des médias sociaux (Vaidhyanathan, 2019).

Pour surmonter les défis des réponses politiques à la désinformation, les décideurs politiques peuvent apprendre des innovations et des échecs des autres. La loi de 2018 sur les « fausses nouvelles » du gouvernement italien, dans laquelle les unités de police étaient autorisées à vérifier les faits, est un bon exemple d’échec politique. En revanche, la création par le gouvernement canadien d’un groupe d’experts non partisans pour prendre des décisions pour renseigner le public sur la désinformation pendant une campagne électorale est prometteuse, car elle retire cette décision des mains du parti au pouvoir et ne la laisse pas uniquement aux agences de sécurité. La communication régulière et étendue entre les agences de renseignement et les journalistes suédois est une autre approche productive, car elle exploite les connaissances des agences de renseignement, mais laisse la communication publique aux journalistes indépendants.

Le cadre conceptuel et le sondage du présent article ne conduisent pas à des recommandations politiques précises. Ils aident plutôt à préciser les biens normatifs en jeu et les rôles potentiels des différents secteurs des politiques pour les protéger. Ils peuvent donc préciser les questions pour de futures recherches. Quelle est l’efficacité des différentes réponses politiques pour lutter contre les divers types de menaces démocratiques? Dans quelle mesure les différents systèmes médiatiques influencent-ils les moyens pour lutter contre la désinformation? Quand les politiques des différentes mesures politiques se complètent-elles ou se minent-elles mutuellement? Et quand le poison de la désinformation pourrait-il être moins nocif pour la démocratie que les remèdes politiques proposés?

Références

Ananny, M. et T. Gillespie. 2017. Public platforms: Beyond the cycle of shock and exceptions. Présenté à la Internet, Policy and Politics Conference tenue à Oxford, au Royaume-Uni. http://blogs.oii.ox.ac.uk/ipp-conference/sites/ipp/files/documents/anannyGillespie-publicPlatforms-oii-submittedSept8.pdf

Allcott, H. et M. Gentzkow. 2017. « Social Media and Fake News in the 2016 Election », Journal of Economic Perspectives, 31(2): 211-236.

Allcott, H., M. Gentzkow, M. et C. Yu. 2019. « Trends in the diffusion of misinformation on social media », Research & Politics, 6(avril-juin): 1-8.

ARTICLE 19. « Regulating Social Media: We Need a New Model That Protects Free Expression ». ARTICLE 19. https://www.article19.org/resources/regulating-social-media-need-new-model-protects-free-expression/

Aspinwall, Nick. 2020. « Taiwan’s War on Fake News Is Hitting the Wrong Targets ». Foreign Policy. https://foreignpolicy.com/2020/01/10/taiwan-election-tsai-disinformation-china-war-fake-news-hitting-wrong-targets/

Assemblée Nationale. 2018. Texte Adopté no 180 – Proposition de loi relative à la lutte contre la manipulation de l’information. Adoptée par l’Assemblée nationale, en nouvelle lecture. Paris : Assemblée nationale.

Australian Competition and Consumer Commission. 2019. Digital Platforms Inquiry - Final Report. Canberra, Australie : Australian Competition and Consumer Commission. https://www.accc.gov.au/publications/digital-platforms-inquiry-final-report
http://www.europarl.europa.eu/RegData/etudes/STUD/2019/608864/IPOL_STU(2019)608864_EN.pdf

Benkler, Y., R. Faris et H. Roberts. 2018. Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. Oxford : Oxford University Press.

Brüggemann, M., S. Engesser, F. Büchel, E. Humprecht et L. Castro. 2014. « Hallin and Mancini Revisited: Four Empirical Types of Western Media Systems ». Journal of Communication, 64(6): 1037-1065.

Cederberg, G. 2018. Catching Swedish Phish: How Sweden is Protecting its 2018 Elections. Cambridge, MA : Belfer Center for Science and International Affairs, Harvard Kennedy School. https://www.belfercenter.org/sites/default/files/files/publication/Swedish%20Phish%20-%20final2.pdf

Chaykowski, K. 2017. « Facebook Says Fake Accounts Likely Tied To Russia Bought $100,000 In Political Ads ». Forbes. https://www.forbes.com/sites/kathleenchaykowski/2017/09/06/fake-facebook-accounts-likely-tied-to-russia-bought-100000-in-political-ads-company-says/

Christians, C. G., T. Glasser, D. McQuail, K. Nordenstreng et R.A. White. 2010. Normative Theories of the Media: Journalism in Democratic Societies. University of Illinois Press.

Deibert, R. J. 2018. « Toward a Human-Centric Approach to Cybersecurity ». Ethics & International Affairs, 32(4): 411-424.

Digital, Culture, Media and Sport Committee. 2018. Disinformation and ‘Fake News’: Interim Report. House of Commons, Royaume-Uni. https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/363/363.pdf

DiResta, R., K. Shaffer, B. Ruppel, D. Sullivan, R. Matney, R. Fox, J. Albright et B. Johnson. 2018. The Disinformation Report: The Tactics & Tropes of the Internet Research Agency. Austin : New Knowledge. https://disinformationreport.blob.core.windows.net/disinformation-report/NewKnowledge-Disinformation-Report-Whitepaper-121718.pdf

Douek, E. 2018, 11 juillet. « What’s in Australia’s New Laws on Foreign Interference in Domestic Politics ». Lawfare. https://www.lawfareblog.com/whats-australias-new-laws-foreign-interference-domestic-politics

Dryzek, J. S. 2009. « Democratization as Deliberative Capacity Building ». Comparative Political Studies, 42(11): 1379-1402.

Commission européenne. 2018a. Tackling Online Disinformation: A European Approach. Bruxelles. https://ec.europa.eu/digital-single-market/en/news/communication-tackling-online-disinformation-european-approach

Commission européenne. 2018b. Communication from the Commission - Securing Free and Fair European Elections. Bruxelles : Commission européenne. https://ec.europa.eu/commission/sites/beta-political/files/soteu2018-free-fair-elections-communication-637_en.pdf

Facebook. 2017. Information Operations and Facebook. Facebook Newsroom. https://fbnewsroomus.files.wordpress.com/2017/04/facebook-and-information-operations-v1.pdf.

Farrell, H. et B. Schneier. 2018. Common-Knowledge Attacks on Democracy. Cambridge, MA : Berkman Klein Center for Internet & Society, Université Harvard. https://papers.ssrn.com/abstract=3273111

Feilzer, Martina Yvonne. 2010. « Doing Mixed Methods Research Pragmatically: Implications for the Rediscovery of Pragmatism as a Research Paradigm ». Journal of Mixed Methods Research, 4(1): 6-16.

Freedom House. 2017. Freedom on the Net 2017. Washington, DC : Freedom House. https://freedomhouse.org/article/new-report-freedom-net-2017-manipulating-social-media-undermine-democracy

Funke, Daniel. 2018. « Italians Can Now Report Fake News to the Police. Here’s Why That’s Problematic ». Poynter. https://www.poynter.org/fact-checking/2018/italians-can-now-report-fake-news-to-the-police-heres-why-thats-problematic/.

Goodin, R. E., M. Rein et M. Moran. 2006. « The Public and Its Policies ». Dans The Oxford Handbook of Public Policy, R. E. Goodin et al. (dir.), 3-35. Oxford : Oxford University Press.

Gould, C. C. 2006. « Self-Determination beyond Sovereignty: Relating Transnational Democracy to Local Autonomy ». Journal of Social Philosophy, 37(1): 44-60.

Gouvernement du Canada. 2019. Lutter contre l’ingérence étrangère. Institutions démocratiques : Document d’information. https://www.canada.ca/fr/institutions-democratiques/nouvelles/2019/01/lutter-contre-lingerence-etrangere.html

Gouvernement du Danemark. 2018. Strengthened Safeguards Against Foreign Influence on Danish Elections and Democracy. Ministère des Affaires étrangères du Danemark. http://um.dk/en/news/newsdisplaypage/?newsid=1df5adbb-d1df-402b-b9ac-57fd4485ffa4

Guess, A., B. Nyhan et J. Reifler. 2018. Selective Exposure to Misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign. Conseil européen de la recherche, 9. https://www.dartmouth.edu/~nyhan/fake-news-2016.pdf

Habermas, J. 1996. Between Facts and Norms: Contributions to a Discourse Theory of Law and Democracy. Cambridge, MA : MIT Press.

Hallin, D. C. et P. Mancini. 2004. Comparing Media Systems. Cambridge, Royaume-Uni : Cambridge University Press.

Hawley, Sen. J. 2019, 19 juin. S.1914 - Ending Support for Internet Censorship Act. 116th Congress (2019-2020). https://www.congress.gov/bill/116th-congress/senate-bill/1914

Henley, J. 2018, 24 avril. « Global crackdown on fake news raises censorship concerns ». The Guardian. https://www.theguardian.com/media/2018/apr/24/global-crackdown-on-fake-news-raises-censorship-concerns

High Level Expert Group on Fake News and Online Disinformation. 2018. A Multi-Dimensional Approach to Disinformation. Luxembourg : Commission européenne. https://ec.europa.eu/digital-single-market/en/news/final-report-high-level-expert-group-fake-news-and-online-disinformation

Hollis, D. 2018. « The Influence of War; the War for Influence ». Temple International & Comparative Law Journal, 32: 31-46.

Ingram, Mathew. 2020. « Who Is Right about Political Ads, Twitter or Facebook? » Columbia Journalism Review. https://www.cjr.org/the_media_today/political-ads-twitter-facebook.php.

Jeangène Vilmer, J.-B., A. Escorcia, M. Guillaume et J. Herrera. 2018. Les manipulations de l’information : Un défi pour nos démocraties. Paris : Centre d’analyse, de prévision et de stratégie, Ministère de l’Europe et des Affaires étrangères et Institut de recherche stratégique de l’École militaire, Ministère des Armées. https://www.diplomatie.gouv.fr/IMG/pdf/les_manipulations_de_l_information_2__cle04b2b6.pdf

Karpf, D. 2017. « Sorting through the Facebook-Russia-Trump Advertising Story ». Medium. https://medium.com/@davekarpf/sorting-through-the-facebook-russia-trump-advertising-story-d096e3df3edb.

Karppinen, K. 2019. « Freedom Without Idealization: Non-Ideal Approaches to Freedom of Communication ». Communication Theory, 29(1): 66-85.
———. 2013. « Uses of Democratic Theory in Media and Communication Studies ». Observatorio (OBS*), 7(3): 01-17.

Kaye, David. 2018a. Rapport du Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression. Genève : Conseil des droits de l’homme. https://ap.ohchr.org/documents/dpage_f.aspx?si=A/HRC/38/35
———. 2018b. Mandate of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression. Genève : Conseil des droits de l’homme. http://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-ITA-1-2018.pdf.

Kreiss, D., R.G. Lawrence et S. C. McGregor. 2018. « In Their Own Words: Political Practitioner Accounts of Candidates, Audiences, Affordances, Genres, and Timing in Strategic Social Media Use ». Political Communication, 35(1): 8-31.

Leerssen, Paddy, et al. 2019. « Platform Ad Archives: Promises and Pitfalls ». Internet Policy Review, 8(4): 1-21.

LSE Commission on Truth, Trust and Technology. 2018. Tackling the Information Crisis: A Policy Framework for Media System Resilience. Londres, Royaume-Uni : London School of Economics and Political Science. http://www.lse.ac.uk/media-and-communications/assets/documents/research/T3-Report-Tackling-the-Information-Crisis.pdf

Lidberg, J., et D. Muller, dir. 2018. In the Name of Security: Secrecy, Surveillance and Journalism. Londres : Anthem Press.

MacAskill, E. 2016, 8 décembre. « Hostile States Pose “Fundamental Threat” to Europe, says MI6 Chief ». The Guardian. https://www.theguardian.com/uk-news/2016/dec/08/hostile-states-pose-fundamental-threat-to-europe-says-mi6-chief

Macron, E. 2018, 14 novembre. IGF 2018 Speech by French President Emmanuel Macron. Forum sur la Gouvernance de l’Internet. https://www.intgovforum.org/multilingual/content/igf-2018-speech-by-french-president-emmanuel-macron

Manin, Bernard. 1997. The Principles of Representative Government. Cambridge : Cambridge University Press.

Mansbridge, J., J. Bohman, S. Chambers, T. Christiano, A. Fung, J. Parkinson, D.F. Thompson et M.E. Warren. 2012. « A Systemic Approach to Deliberative Democracy ». Dans Deliberative Systems: Deliberative Democracy at the Large Scale, J. Parkinson et J. Mansbridge (dir.), 1-26. Cambridge : Cambridge University Press.

Multistakeholder Forum on Disinformation. 2018, 26 septembre. Code of Practice on Disinformation. Bruxelles : Commission européenne. https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454

Nakashima, E. 2019, 27 février. « U.S. Cyber Command operation disrupted Internet access of Russian troll factory on day of 2018 midterms ». Washington Post. https://www.washingtonpost.com/world/national-security/us-cyber-command-operation-disrupted-internet-access-of-russian-troll-factory-on-day-of-2018-midterms/2019/02/26/1827fc9e-36d6-11e9-af5b-b51b7ff322e9_story.html

NATO StratCom. 2016. Social Media as a Tool of Hybrid Warfare. Riga, Lettonie : NATO Strategic Communication Centre of Excellence.

Nielsen, R. K. et L. Graves. 2017. “News You Don’t believe”: Audience Perspectives on Fake News. Oxford, Royaume-Uni : Reuters Institute for the Study of Journalism. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2017-10/Nielsen&Graves_factsheet_1710v3_FINAL_download.pdf

Ohlin, J. D. 2017. « Did Russian Cyber Interference in the 2016 Election Violate International Law? Texas Law Review, 95(7): 1579-1598.

Osnos, E. 2018, 10 septembre. Can Mark Zuckerberg Fix Facebook Before It Breaks Democracy? » New Yorker. https://www.newyorker.com/magazine/2018/09/17/can-mark-zuckerberg-fix-facebook-before-it-breaks-democracy

Pamment, James, Howard Nothhaft, Henrik Agardh-Twetman et Alicia Fjällhed. 2018. Countering Information Influence Activities: The State of the Art. Lund, Suède : Swedish Civil Contingencies Agency (MSB) et Université Lund. https://www.msb.se/RibData/Filer/pdf/28698.pdf.

Paul, C. et M. Matthews. 2016. The Russian “Firehose of Falsehood” Propaganda Model: Why It Might Work and Options to Counter It. Santa Monica : RAND Corporation. https://www.rand.org/pubs/perspectives/PE198.html

Pomerantsev, P. 2019. A Cycle of Censorship: The UK White Paper on Online Harms and the Dangers of Regulating Disinformation. Amsterdam, Pays-Bas : Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression.

Przeworski, A. 1999. « Minimalist conception of democracy: a defense ». Dans Democracy’s Values, I. Shapiro et C. Hacker-Cordón (dir.), 23-55. Cambridge : Cambridge University Press.

Puppis, M. 2014. « The Regulation of Political Communication ». Dans Political Communication, C. Reinemann (dir.), 39-61. Berlin : Walter de Gruyter GmbH.

Schudson, M. 1998. The Good Citizen: A History of American Civic Life. New York : Free Press.

Schumer, C. Congressional Record Vol. 165, No. 79 (2019). United States Government Publishing Office. https://www.congress.gov/congressional-record/2019/5/13/senate-section/article/s2776-2?s=1&r=12

Smith, R. C. 2019. « Fake News, French Law and Democratic Legitimacy: Lessons for the United Kingdom? ». Journal of Media Law, 11(1): 52-81.

Spaulding, S., D. Nair et A. Nelson. 2018. Why Putin Targets Minorities. CSIS : Center for Strategic & International Studies. https://www.csis.org/analysis/why-putin-targets-minorities

Stocking, G. 2019, 5 juin. Many Americans Say Made-Up News Is a Critical Problem That Needs To Be Fixed. Pew Research Center. https://www.journalism.org/2019/06/05/many-americans-say-made-up-news-is-a-critical-problem-that-needs-to-be-fixed/

Taiwan Foundation for Democracy. 2019. TFD Survey on Taiwanese View of Democratic Values and Governance. Taiwan Foundation for Democracy. http://tfd.org.tw/export/sites/tfd/files/news/pressRelease/0719_press-release_web.pdf

Tenove, C. et H.J.S. Tworek. 2019. « Online Disinformation and Harmful Speech: Dangers for Democratic Participation and Possible Policy Responses ». Journal of Parliamentary and Political Law, 13: 215-32.

Tworek, H.J.S. et P. Leerssen. 2019. An Analysis of Germany’s NetzDG Law. Amsterdam: Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression. https://www.ivir.nl/publicaties/download/NetzDG_Tworek_Leerssen_April_2019.pdf

United Kingdom Parliament. 2019. Online Harms White Paper. Secretary of State for Digital, Culture, Media & Sport et Secretary of State for the Home Department. https://www.gov.uk/government/consultations/online-harms-white-paper

Vaidhyanathan, S. 2019, 28 juillet. « Why Conservatives Allege Big Tech Is Muzzling Them ». The Atlantic. https://www.theatlantic.com/ideas/archive/2019/07/conservatives-pretend-big-tech-biased-against-them/594916/

Verza, Sofia. 2018. Tackling fake news, the Italian way. Resource Centre on Media Freedom in Europe. http://www.rcmediafreedom.eu/Tools/Legal-Resources/Tackling-fake-news-the-Italian-way.

Wardle, C. et H. Derakhshan. 2017. Information Disorder: Toward an interdisciplinary framework for research and policy making. Rapport DGI(2017)09. Strasbourg : Conseil de l’Europe. https://firstdraftnews.com/wp-content/uploads/2017/10/Information_Disorder_FirstDraft-CoE_2018.pdf?x56713

Warren, M. E. 2017. « A Problem-Based Approach to Democratic Theory ». American Political Science Review, 111(1): 39-53.

Watts, D. J. et D. M. Rothschild. 2017, 5 décembre. « Don’t Blame the Election on Fake News. Blame It on the Media ». Columbia Journalism Review. https://www.cjr.org/analysis/fake-news-media-election-trump.php

Woolley, S.C. et D. Guilbeault. 2018. « United States: Manufacturing Consensus Online ». Dans Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media, S.C. Woolley et P. N. Howard (dir.). Oxford : Oxford University Press.

Young, I. M. 2000. Inclusion and Democracy. Oxford : Oxford University Press.

Ytre-Arne, B. et H. Moe. 2018. « Approximately Informed, Occasionally Monitorial? Reconsidering Normative Citizen Ideals ». The International Journal of Press/Politics, 23(2): 227-246.

Date de modification :