Les organisations internationales classent la désinformation comme l'une des principales menaces pour la démocratie depuis plus d'une décennie maintenant. Les technologies numériques réinventent sans relâche et remodèlent en profondeur les modes de vie modernes, l’environnement des citoyens et celui des entreprises. L'IA apporte une nouvelle perturbation dans la façon dont nous accédons à la connaissance et créons, diffusons et comprenons l'information, en brouillant les frontières entre l'information réelle et l'information manipulée.
Impact de la révolution numérique sur la société
La révolution numérique atteint son âge d'or, dans la continuité des transformations précédentes qui se sont produites en moins d'une décennie. D'ici 2024, le nombre de propriétaires de téléphones mobiles dans le monde devrait atteindre 7,21 milliards. Environ 67% de la population mondiale a actuellement accès à l'internet – il n'y en avait qu'un% en 1995. Les changements ont surgi rapidement comme un tsunami, sans la possibilité pour les gens de revenir en arrière ou d'y réfléchir, ni pour toutes les parties prenantes d'adapter les compétences, les cours d'éducation ou de convertir de nombreux secteurs économiques. Ces tendances ont suscité un optimisme incroyable parmi les décideurs européens (numériser l'UE, marché unique numérique, entrepreneurs rapides, etc.). Pourtant, cela a été repris par le pessimisme latent parmi les perdants de la situation qui n'ont pas pu rattraper leur retard (investisseurs traditionnels, personnes âgées, employés licenciés dans les secteurs automatisés et personnes ayant une faible maîtrise des technologies de l'information).
Les avantages du bouleversement numérique pour les consommateurs et les investisseurs commerciaux sont colossaux: l'accès direct à l'information, aux connaissances et aux données du monde entier est rendu possible. Les connaissances faciles à digérer sont accessibles presque partout via les médias sociaux, les moteurs de recherche sur Internet, les applications sélectives mais aussi l'éducation en ligne. La connectivité est illimitée: les plateformes collaboratives, y compris les médias sociaux, ont permis d’établir un lien direct entre les personnes, mais aussi entre les entrepreneurs potentiels et les consommateurs. La logistique est considérablement facilitée par la possibilité de commander des fournitures, de se déplacer plus rapidement ou moins cher, d'utiliser le GPS, la géolocalisation et les connexions instantanées. Enfin, les technologies numériques dotées de l’autonomisation de l’IA offrent un énorme potentiel pour trouver des solutions de recherche pour le développement de la santé, du climat et des infrastructures, y compris pour les pays moins avancés.
Cela nous amène aux inconvénients et aux pierres d'achoppement, sinon aux menaces de cette révolution de l'IA numérique. En effet, les systèmes développés par l’IA « augmentent les possibilités de créer des contenus factices réalistes générés par l’IA, mais facilitent également la diffusion de la désinformation auprès d’un public (micro) ciblé et à grande échelle par des parties prenantes malveillantes » (Bontridder et Poullet, 2021). Des préoccupations ont été soulevées sur les droits d'auteur, les algorithmes biaisés, les modèles commerciaux utilisant des données massives pour tromper les individus et le remplacement des emplois par la technologie dans de nombreux secteurs de l'IA. Les technologies de l’IA faciliteront également l’utilisation de la vidéo, du texte et de l’image, générant des contenus basés sur de fausses informations et créant des difficultés pour les individus et les médias à faire confiance aux informations (Newman 2024).

Réponse de l’UE: réglementation, cybersécurité et vérification des faits
Contrairement au vide créé par l’absence de réglementation dans d’autres pays démocratiques, l’Union européenne (UE), suivie par les États membres de l’UE, élabore activement des politiques et des initiatives pour lutter contre la désinformation, en particulier dans le contexte de la sauvegarde des processus démocratiques, de la protection des citoyens et de la promotion de l’éducation aux médias. Ces politiques et initiatives reflètent l’engagement de l’UE à relever le défi multiforme de la désinformation et à protéger les valeurs démocratiques à l’ère numérique. Ces initiatives sont renforcées par l’approbation d’un règlement sur la désinformation dans la plupart des États membres de l’UE, ainsi que par une coopération plus étroite entre les États membres de l’UE dans le domaine de la cybersécurité et une coopération conjointe pour lutter contre la désinformation.
Enfin, nous observons les négociations en cours entre les institutions de l’UE et les principales plateformes internet afin de trouver le meilleur moyen de lutter contre la désinformation. La question de la réglementation par rapport à l'autorégulation n'est pas encore terminée et nécessitera des développements supplémentaires au cours des prochaines années.
Mais cela ne reflète qu’une partie des efforts déployés pour protéger les citoyens contre la désinformation. L'UE et les États membres ont également investi des efforts dans la création d'agences de cybersécurité pour démystifier les campagnes de désinformation massives et les vérificateurs de faits pour les médias (tels que l'EDMO, l'Observatoire européen des médias numériques). Malgré cet arsenal d’outils, la désinformation reste une menace réelle.
Il existe des lignes floues entre la «démystification» de la désinformation effectuée par des acteurs privés et les agences de sécurité nationale. Alors que les citoyens sont encouragés à regarder des vidéos sur la façon de reconnaître la désinformation et à utiliser des vérificateurs de faits, les campagnes de désinformation manipulatrices sont encore plutôt dévoilées par les agences de sécurité nationale et les médias. L’agence française Viginum, par exemple, a été créée en 2021 pour détecter les ingérences numériques d’entités étrangères. L’agence a découvert en février 2024 plus de 193 sites web diffusant de la désinformation dirigée par l’intermédiaire de sites de médias sociaux et d’applications de messagerie. Il semble que même pour les agences de sécurité, la caractérisation de l’origine de la campagne n’est pas toujours facile, en particulier lorsque la désinformation ou la désinformation doit être attribuée à des gouvernements étrangers, à des acteurs malveillants ou à de simples individus agissant en tant que perturbateurs.
En outre, la guerre hybride, à laquelle la désinformation n’est qu’un outil, combine des cyberattaques avec une désinformation massive, créant des risques d’influence malveillante à l’égard des médias, des gouvernements, des infrastructures publiques, mais aussi de la société civile et des secteurs universitaires. Et c'est là que réside la vraie menace.

Menaces et défis futurs
La menace et le danger de la désinformation sont qu'elle utilise la polarisation, les émotions et les stéréotypes. Les éléments permettant à une «fausse nouvelle» de devenir virale dépendent de leur interaction avec un certain nombre de questions qui divisent et qui font appel à la curiosité ou à des émotions spécifiques dans une société. Le ciblage personnalisé, basé sur des caractéristiques personnelles ou psychologiques, peut être combiné avec des outils de génération de langage naturel pour créer du contenu pour des utilisateurs uniques, conduisant potentiellement à une manipulation active.
En outre, la diffusion automatisée agressive de la désinformation juste avant le début d’une campagne politique peut avoir une incidence négative sur les résultats des élections (Wade 2018). «En s’appuyant sur la collecte et la manipulation des données des utilisateurs afin d’anticiper et d’influencer les opinions politiques et les résultats électoraux des électeurs, le profilage des utilisateurs et le microciblage peuvent constituer une menace pour la démocratie, le débat public et les choix des électeurs» (Kertysova 2018, Mont’Alverne et al. 2024). Ce point est extrêmement important, étant donné que cette année 2024 sera une année électorale pour la moitié de la population mondiale et que les ingérences sont actuellement suspectées mais non visibles, étant donné que les preuves sont difficiles à trouver.
La révolution numérique, y compris l'IA, façonne un avenir rempli d'incertitudes, nécessitant de nouvelles compétences telles que la gestion électronique et les compétences informatiques. Si la technologie ouvre de nouvelles perspectives et peut conduire à des transformations positives dans divers secteurs tels que la santé, l’économie ou l’autonomisation de la société civile, elle contribue également à l’érosion de l’autorité et des valeurs, qui sont remplacées par un accès sans fin à l’information et à la connectivité, y compris aux contenus falsifiés et manipulés.
Des limites peuvent également être nécessaires pour empêcher les algorithmes ou les robots de dicter nos modes de vie et de créer un espace pour la manipulation des élections. Un «grand pare-feu» devrait protéger l’Europe contre les cyberinterférences et les contenus manipulés. Le maintien de la stabilité et de la confiance dans les institutions, les systèmes démocratiques, les médias et les structures économiques deviendra un défi dans ce paysage en mutation rapide. La cybersécurité et la lutte contre la désinformation devraient figurer parmi les priorités absolues.
Références
- Noémi Bontridder et Yves Poullet Y, 2021, Le rôle de l’intelligence artificielle dans la désinformation. Données & Politique, 3: e32. doi:10.1017/dap.2021.20
- Katarina Kertysova, 2018, Intelligence artificielle et désinformation Comment l’IA change la manière dont la désinformation est produite, disséminée et peut être combattue, la sécurité et les droits de l’homme 29 (2018) 55-81
- Camila Mont’Alverne, Sumitra Badrinathan, Amy, Ross Arguedas, Benjamin Toff, Richard Fletcher et Rasmus Kleis Nielsen, 2024 The Trust Gap: Comment et pourquoi les nouvelles sur les plates-formes numériques sont vues plus sceptiques par rapport aux nouvelles en général, Reuters Institute https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2022-09/MontAlverne_et_al_The_Trust_Gap.pdf
- Nic Newman, 2024, «Digital News Project: Journalisme, médias et technologie: Trends and Prediction», Université d’Oxford, Reuters Institute, https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2024-01/Newman%20-%20Trends%20and%20Predictions%202024%20FINAL.pdf
- Michael Wade, «Psychographics: The Behavioural Analysis That Helped Cambridge Analytica Know Voters’ Minds», The Conversation, 21 mars 2018, https://theconversation .com/psychographics-the-behavioural-analysis-that-helped-cambridge-analytica-know -voters-minds-93675
Télécharger l'article complet en pdf ici.
À PROPOS DE PASCALINE GABORIT
Pascaline Gaborit est chercheuse, consultante, experte et formatrice. Elle est titulaire d’un doctorat en sciences politiques sur le thème «Confiance et conflits». Elle est la fondatrice du think tank/NGO Pilot4DEV et travaille en tant que consultant sur l'évaluation/l'évaluation de la qualité de différents programmes et projets internationaux.
Elle a publié des livres et des articles sur la coopération internationale, la résilience, la culture, le développement, l'égalité des sexes et l'adaptation au changement climatique. Elle a été directrice du réseau international Pilot Cities pendant plus de 12 ans et a travaillé comme conseillère pour d'autres think tanks.
Elle travaille actuellement sur des projets liés à la recherche et à l'action sur la résilience, la durabilité, l'adaptation au changement climatique, le dialogue, les fausses nouvelles, l'intelligence artificielle, les droits de l'homme et la démocratie.




