Connectez-vous

Beaucoup d’élections, beaucoup de désinformation

Samedi 13 Janvier 2024

Beaucoup d’élections, beaucoup de désinformation

Des milliards d’électeurs – environ la moitié de la population mondiale – iront aux urnes cette année. Cet exercice démocratique d’une ampleur inégalée sera lourd de conséquences sur la façon dont le monde sera dirigé durant les décennies à venir.

 

Cela survient au moment où la désinformation et les théories complotistes foisonnent partout dans le monde.

 

Les fausses accusations de fraude électorale sapent la confiance en la démocratie, la propagande étrangère exacerbe les enjeux nationaux clivants et l’intelligence artificielle décuple l’effet de la désinformation et déforme la perception de la réalité.

 

Tout cela survient alors que les médias sociaux ont réduit leurs normes d’exactitude et leurs équipes électorales.

 

« Presque toutes les démocraties sont sous pression, indépendamment de la technologie. Ajoutez à cela la désinformation, et ça rend possibles beaucoup de coups fourrés. » (Darrell West, membre de la Brookings Institution)

 

C’est « une tempête parfaite de désinformation », dit Darrell West, membre du groupe de réflexion Brookings Institution.

 

Des enjeux planétaires

 

La démocratie, qui s’est répandue dans le monde entier après la guerre froide, affronte partout des crises : migrants, dérèglement climatique, inégalités, guerres, etc. L’incapacité de nombreux pays à relever ces défis sape la confiance dans les sociétés libérales et pluralistes, créant un terrain fertile pour les démagogues et les politiciens autoritaires.

 

Les dictatures, Russie et Chine en tête, profitent du mécontentement des électeurs pour diffuser des récits minant les institutions démocratiques et l’autorité des élus, souvent en parrainant des campagnes de désinformation. Ce travail de sape, s’il réussit, pourrait favoriser l’élection de dirigeants autoritaires.

 

Selon Fiodor Loukianov, qui dirige à Moscou le Conseil sur la politique étrangère et de défense – proche du Kremlin –, 2024 « pourrait être l’année où les élites libérales de l’Occident perdront le contrôle de l’ordre mondial ».

 

Des bouleversements attendent l’establishment politique de nombreux pays et des instances intergouvernementales comme le G20, estime Katie Harbath, fondatrice du centre d’études des technologies Anchor Change et ex-directrice de la politique publique chargée des élections chez Facebook. La désinformation – propagée par les médias sociaux, mais aussi par la presse écrite, la radio, la télévision et le bouche-à-oreille – risque de déstabiliser le processus politique.

 

« En 2025, le monde aura l’air très différent », prédit-elle.

 

Des opérateurs étatiques agressifs

 

Les gouvernements autocratiques qui cherchent à discréditer la démocratie comme modèle mondial de gouvernance comptent parmi les plus grandes sources de désinformation lors des campagnes électorales.

 

La Russie, la Chine et l’Iran pourraient tenter de perturber les élections dans d’autres pays, y compris l’élection présidentielle américaine de 2024, estiment des chercheurs et le gouvernement américain. Ces pays voient dans l’année à venir « une véritable occasion de nous mettre dans l’embarras sur la scène internationale, d’exploiter les divisions sociales et de saper le processus démocratique », prévient Brian Liston, analyste chez Recorded Future, une société de sécurité numérique qui a récemment publié un rapport sur les menaces pesant sur l’élection américaine.

 

La société a aussi examiné une tentative d’influence russe que Meta a démasquée en 2023, baptisée « Doppelgänger* », qui semblait usurper l’identité de médias internationaux et créait de faux comptes propageant la propagande russe aux États-Unis et en Europe. Doppelgänger semble avoir utilisé des outils d’intelligence artificielle disponibles en ligne pour créer de faux médias traitant de la politique américaine, avec des noms comme Election Watch et My Pride.

 

La désinformation en ligne circulant à travers le monde passe souvent par les communautés d’immigrés ou est orchestrée par des agents étatiques. Des experts prédisent que les allégations de fraude électorale continueront d’évoluer et de se répercuter, comme on l’a vu aux États-Unis et au Brésil en 2022, puis en Argentine en 2023.

 

Clivage et extrémisme

 

Un environnement politique qui se clive et se durcit favorise les propos haineux et la désinformation et enfonce encore plus les électeurs dans leurs chambres d’écho. Une minorité motivée de voix extrêmes, aidée par les algorithmes des médias sociaux renforçant les préjugés, peut étouffer l’opinion de la majorité modérée.

 

« Nos sociétés sont en train de redéfinir les normes du droit de parole et la responsabilité en matière d’expression publique, en ligne et hors ligne », a observé Mme Harbath. « Comment faire cela ? Il existe de nombreux points de vue aux États-Unis et ailleurs dans le monde. »

 

Les voix les plus extrêmes se cherchent et se trouvent sur des médias sociaux alternatifs comme Telegram, BitChute et Truth Social. Ces plateformes ont récemment véhiculé une poussée d’appels à prévenir la fraude électorale – statistiquement insignifiante –, signale Pyrra, une société qui surveille les menaces et la désinformation.

 

La « prévalence et l’acceptation de ces thèmes progressent », influençant même directement la politique et la réglementation en matière d’élections, a constaté Pyrra dans une étude de cas.

 

« Ces conspirations se propagent à l’élite politique, qui utilise ces thèmes pour gagner la faveur du public tout en dégradant la transparence et les mécanismes de contrôle du système qu’ils sont censés défendre », écrivent les chercheurs de l’entreprise.

 

Promesses et périls de l’IA

 

Selon un rapport des universités de Chicago et Stanford, « l’IA pourrait favoriser la vie démocratique ». Des outils d’IA voués à la politique pourraient informer les électeurs sur des enjeux clés et améliorer le contact avec les élus.

 

Cette technologie pourrait aussi être un vecteur de désinformation. De fausses images d’IA ont déjà servi à diffuser des théories conspirationnistes dénonçant un prétendu complot mondial visant à remplacer les Européens blancs par des immigrants non blancs.

 

Lawrence Norden, qui dirige le programme sur les élections et le gouvernement au Brennan Center for Justice, un institut de politique publique, a prévenu que l’IA pourrait imiter de grandes quantités de documents provenant des bureaux électoraux et les diffuser à grande échelle. Elle pourrait également créer de fausses nouvelles quelques jours avant le scrutin américain, comme la bande audio apparemment manipulée par IA qui a été diffusée lors des élections serrées en Slovaquie l’automne dernier.

 

« Toutes les menaces à notre démocratie depuis un certain temps sont potentiellement aggravées par l’IA », a constaté M. Norden lors d’une table ronde en ligne en novembre. (Durant la conférence, les organisateurs ont montré une version artificiellement manipulée de M. Norden pour souligner les capacités de l’IA.)

 

Certains experts craignent que la simple présence d’outils d’IA affaiblisse la confiance dans l’information et permette aux acteurs politiques de nier du contenu réel. D’autres disent que ces craintes sont pour l’instant exagérées.

 

L’IA n’est « qu’une menace parmi d’autres », a souligné James Lindsay, premier vice-président du groupe de réflexion Council on Foreign Relations.

 

« Je ne perdrais pas de vue tous les moyens traditionnels de semer la désinformation », a-t-il ajouté.

 

Les grandes firmes technos réduisent leurs protections

 

Dans les pays où des élections générales sont prévues en 2024, la désinformation est devenue une préoccupation majeure pour la grande majorité des personnes interrogées par l’UNESCO, l’organisation culturelle des Nations unies. Pourtant, les mesures prises par les médias sociaux pour limiter les contenus toxiques, en hausse depuis l’élection présidentielle américaine de 2016, ont récemment été réduites, voire supprimées.

 

Meta, YouTube et X ont réduit ou remanié les équipes chargées de contrôler les contenus dangereux ou inexacts l’année dernière, selon un récent rapport de Free Press, une organisation de défense des droits. Certains proposent de nouvelles fonctionnalités, comme les diffusions privées à sens unique, qui sont particulièrement difficiles à contrôler.

 

Ces entreprises commencent l’année avec « peu de bande passante, très peu de responsabilité rédactionnelle et des milliards de personnes dans le monde qui se tournent vers ces plateformes pour s’informer », ce qui n’est pas idéal pour protéger la démocratie, observe Nora Benavidez, conseillère juridique principale de Free Press.

 

De nouvelles plateformes, comme TikTok, joueront probablement un rôle accru dans le contenu politique. Substack, la plateforme spécialisée dans les blogues de nouvelles – qui a annoncé le mois dernier qu’elle n’interdirait pas les symboles nazis et la rhétorique extrémiste – souhaite que le prochain cycle électoral soit « l’élection Substack ».

 

Des politiciens prévoient des évènements en direct sur Twitch, qui accueille aussi un débat entre des versions générées par l’IA du président Joe Biden et de l’ancien président Donald Trump.

 

Meta, qui possède Facebook, Instagram et WhatsApp, a affirmé dans un blogue en novembre qu’elle était « en position de force pour protéger l’intégrité des élections de l’année prochaine sur [ses] plateformes ». (Le mois dernier, un comité de surveillance nommé par l’entreprise a contesté les outils automatisés de Meta et son traitement de deux vidéos liées au conflit entre Israël et le Hamas.)

 

YouTube écrivait le mois dernier que ses « équipes spécialisées dans les élections ont travaillé sans relâche » pour s’assurer qu’elles avaient « les bonnes politiques et les bons systèmes ». La plateforme a annoncé l’été dernier qu’elle cesserait de supprimer les faux récits de fraude électorale. (YouTube a affirmé souhaiter que les électeurs entendent tous les points de vue d’un débat, tout en précisant que « ce n’est pas un laissez-passer pour diffuser des informations erronées nuisibles ou promouvoir une rhétorique haineuse ».)

 

Ce type de contenu a proliféré sur X après que le milliardaire Elon Musk en a pris la direction à la fin de l’année 2022. Quelques mois plus tard, Alexandra Popken a quitté son poste de responsable de la confiance et de la sécurité sur la plateforme. De nombreux médias sociaux s’appuient grandement sur de l’IA peu fiable pour modérer le contenu. Leurs équipes humaines réduites passent leur temps à éteindre des feux, a imagé Mme Popken, qui s’est ensuite jointe à la société de modération de contenu WebPurify.

 

« L’intégrité des élections est un effort tellement colossal qu’il faut vraiment une stratégie proactive, beaucoup de gens, de cerveaux et de cellules de crise », a-t-elle conclu.

 

* Doppelgänger est un mot allemand emprunté par l’anglais signifiant « sosie » ou « double d’une personne vivante ». Il est présent dans la fiction, le folklore, ou encore dans la mythologie germanique et la mythologie nordique. Il désigne le double fantomatique d’une personne vivante, le plus souvent un jumeau maléfique.
(Cet article a été publié dans le New York Times)

 

 

Nombre de lectures : 225 fois











Inscription à la newsletter