Mettre les morceaux ensemble: Pourquoi la dynamique de l’IA dans les domaines de la linguistique, des médias et de l’ampli; et la politique de l’UE doivent-elles s’unir pour démystifier la désinformation?

Ces dernières années, la désinformation est passée des clichés occasionnels de «fausses nouvelles» à une menace systémique qui utilise la manipulation linguistique, les mécanismes médiatiques, l’intelligence artificielle et les stratégies politiques transnationales pour former l’opinion publique et saper les processus démocratiques. Deux axes de recherche, l’un portant sur les «micro» mécanismes de désinformation et l’autre sur les réponses politiques et de gouvernance de haut niveau, sont souvent restés distincts. Il est temps de les rassembler.

L'anatomie de la menace: Langue, mécanismes médiatiques et IA générative

Les campagnes de désinformation sont menées à différents niveaux, qui sont interdépendants, ce qui les rend très efficaces (D’Andrea et al., 2025a). Tout d'abord, au niveau du langage, le contenu manipulateur est utilisé, qui est basé sur les émotions et la polarisation, affectant les perceptions plutôt que d'informer. Il est ensuite diffusé à travers les différents mécanismes des médias et de la plateforme, qui sont basés sur les biais cognitifs des utilisateurs, attirés par des contenus sensationnels et polarisants. En outre, l’apparition de l’IA générative rend ce problème particulièrement important, car il est possible de produire beaucoup de faux contenus très crédibles, qui sont très difficiles à détecter (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Ceci, bien sûr, a des conséquences très importantes pour la sphère publique, affectant les opinions politiques et les processus décisionnels.

Le rôle de l’IA: En tant que risque et en tant qu'outil 

L'IA est une épée à double tranchant. D’une part, l’IA générative facilite les campagnes de désinformation à grande échelle (Shoaib et al., 2023; Feuerriegel et al., 2023). D’autre part, les outils d’IA peuvent détecter, suivre et contrer les contenus manipulateurs s’ils sont utilisés de manière responsable (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Les techniques comprennent la détection multilingue, l’analyse de réseau ou les canalisations automatisées de vérification des faits (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). En outre, des systèmes d’IA explicables peuvent contribuer à la détection des deepfakes et à l’analyse des modèles de diffusion des réseaux (Curtis et al., 2025; Truică & Apostol, 2022).

Pourquoi la politique seule ne suffit pas — mais la politique reste essentielle

Sur le plan politique, l’Union européenne a mis en place des programmes tels que l’Observatoire européen des médias numériques (EDMO) et la législation sur les services numériques afin d’accroître l’éducation aux médias, la responsabilité et la transparence entre ses États membres (Commission européenne, 2024; Sánchez Gonzales et al., 2024; D’Andrea et al., 2025b). Les réseaux de collaboration qui comprennent des vérificateurs de faits, des journalistes et des établissements universitaires font partie intégrante du contrepoids à cette échelle (Frau‑Meigs et al., 2025). Il s’agit généralement d’initiatives qui répondent au problème et, partant, contrôlent les conséquences de la désinformation sans s’attaquer à ses racines cognitives, linguistiques ou algorithmiques (Leite et al., 2025). Les politiques qui sont formées sans être soutenues par la recherche dans des domaines tels que le cadrage émotionnel, les stratégies persuasives et l'amplification axée sur l'IA ont le risque d'être trop larges ou ‌scattered.

Fusionner Micro et Macro-Vers une stratégie holistique

L’atténuation effective de la désinformation doit être abordée tant au niveau microéconomique qu’au niveau macroéconomique:

  • Vigilance au micro-niveau: les citoyens doivent devenir capables de repérer des récits manipulateurs, des contenus encadrés émotionnellement et/ou amplifiés algorithmiquement (Arribas et al., 2025).
  • Gouvernance au niveau macroéconomique: cela nécessiterait des cadres réglementaires qui prévoient la transparence, la responsabilité des plateformes, l’accès aux données pour permettre une analyse indépendante et la coordination globale entre les États membres de l’UE et les réseaux de vérification des faits (Pilati & Venturini, 2025; Commission européenne, 2024).

Ces niveaux doivent être en conversation les uns avec les autres: la conception des politiques devrait s’appuyer sur des recherches sur ce qui rend la désinformation convaincante, et la recherche devrait être mise à l’échelle au moyen d’outils de politique structurelle.

Vers la résilience démocratique: Que devons-nous faire?

Trois priorités interdépendantes émergent:

  1. encourager la recherche interdisciplinaire afin d’aider à identifier de nouvelles tactiques, techniques et procédures de désinformation qui évoluent constamment pour améliorer la détection dans les langues, les cultures et les plateformes (D’Andrea et al., 2025a; Arribas et al., 2025).
  2. s’engager en faveur de l’éducation aux médias et de la pensée critique à grande échelle, en les intégrant dans les écoles, les programmes communautaires et les campagnes publiques (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
  3. introduire et faire respecter des garanties structurelles, telles que des obligations de transparence pour les plateformes en ligne, des mécanismes de réaction aux crises, l’étiquetage des contenus générés par l’IA et une surveillance coopérative à l’échelle de l’UE (Commission européenne, 2024; Pilati & Venturini, 2025).

Conclusion

La désinformation ne peut être vaincue uniquement par la recherche ou la réglementation; une approche plus holistique qui tire des enseignements de la linguistique, de l’IA, des études sur les médias et des politiques est essentielle. Ce n’est que grâce à cette intégration au niveau des microcompréhensions de la persuasion avec la macrogouvernance et les mesures réglementaires que les sociétés peuvent renforcer leur résilience pour sauvegarder les processus démocratiques (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).

Références

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Stratégies préventives contre la désinformation: Une étude sur les activités de littératie numérique et de l'information menée par des organisations de vérification des faits. Open Research Europe, 5, 122.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Véracité: Un système de vérification des faits d'IA open source. arXiv preprint arXiv:2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Perspectives linguistiques, mécanismes médiatiques et rôle de l’IA dans la diffusion et l’impact de la désinformation. Journal de l'information, de la communication et de l'éthique dans la société.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Examen des politiques: lutter contre la désinformation à l’ère numérique – Politiques et initiatives visant à préserver la démocratie en Europe. Information Polity, 30(1), 82-91.

Commission européenne. (2024). Vrai ou faux? Comment se défendre contre la désinformation. Actualités de la Commission. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-désinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025). Déchiffrer l'authenticité à l'ère de l'IA: comment les images de désinformation générées par l’IA et les outils de détection de l’IA influencent les jugements d’authenticité. AI & SOCIETY, 1-12.

Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). La recherche peut contribuer à lutter contre la désinformation générée par l’IA. Nature Comportement humain, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Lutte contre la désinformation par l’éducation aux médias: Des pratiques actuelles à l'élaboration des politiques en Europe. InMedia. La Revue Française d'Etudes des Médias, (10).

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, mai). une étude interdomaine sur l’utilisation des techniques de persuasion dans la désinformation en ligne. In Companion Proceedings of the ACM on Web Conference 2025 (p. 1100 à 1103).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). perception par les journalistes des risques liés à l’intelligence artificielle et à la désinformation. Journalisme et médias, 6(3), 133.

Pilati, F., & Venturini, T. (2025). L’utilisation de l’intelligence artificielle dans la lutte contre la désinformation: Une cartographie (web) à l'échelle mondiale. Frontières en science politique, 7, 1517726.

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). les programmes d’éducation à l’intelligence artificielle et à la désinformation utilisés par les vérificateurs de faits européens. Revue Catalane de Communication & Études Culturelles, 16(2), 237-255.

Shukla, A. K., & Tripathi, S. (2024). désinformation générée par l’IA au cours de l’année électorale 2024: mesures de l'Union européenne. Frontiers in Political Science, 6, 1451601.

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, novembre). Deepfakes, désinformation et désinformation à l’ère de l’IA frontalière, de l’IA générative et des grands modèles d’IA. En 2023, conférence internationale sur l’informatique et les applications (ICCA) (p. 1 à 7). IEEE.

Truică, C. O., & Apostol, E. S. (2022). Misrobærta: transformateurs contre désinformation. Mathématiques, 10(4), 569.

Télécharger l'article complet en pdf ici.

À propos d’Alessia D’Andrea

Chercheur IRPPS. Ses recherches portent sur les technologies Web, l'interaction homme-machine, les sciences sociales, le marketing/affaires virtuelles et la santé.

À propos d’Arianna D’Ulizia

Chercheur IRPPS. Ses intérêts de recherche incluent l'informatique sociale et l'interaction homme-ordinateur, en particulier le traitement du langage naturel et multimodal et la conception d'interactions centrées sur l'utilisateur .

Regardez cette vidéo institutionnelle présentant la vision d'AI4Debunk

Autres oeuvres de AI4Debunk

Le mini-symposium AI4Debunk: AI and Disinformation – Technology, Media Literacy, and Policy explorera les défis et les opportunités que l’intelligence artificielle apporte à la lutte contre la désinformation.
EUalive a organisé un débat public visant à examiner comment les outils fondés sur l’IA peuvent soutenir les efforts visant à lutter contre les fausses informations et la désinformation.
Une discussion multipartite intitulée «L’utilisation de l’intelligence artificielle dans la lutte contre la désinformation», organisée par l’université de Lettonie, s’est tenue à Riga le 6 janvier 2026.