L’Occident doit tirer les leçons de la guerre de vérité menée par l’Ukraine contre l’IA

Sans attendre les normes mondiales, l'Ukraine a construit des défenses agiles alimentées par l'IA que l'Occident devrait étudier, reproduire et mettre à l'échelle

Imaginez un ennemi qui ne dort jamais, coûte des centimes pour fonctionner et peut réécrire la réalité plus rapidement que n'importe quel vérificateur de faits humain. C'est l'arme que la Russie a construite avec l'intelligence artificielle: une machine de désinformation mondiale qui a produit 3,6 millions d’articles de propagande rien qu’en 2024, répartis sur 150 sites de fausses informations dans 49 pays.

Début 2025, des rapports ont émergé détaillant une stratégie russe sophistiquée visant à tirer parti de l’intelligence artificielle pour la désinformation, non seulement pour cibler directement les humains, mais aussi pour corrompre subtilement les données d’entraînement et les processus de récupération en temps réel des systèmes d’IA occidentaux.

Cette tactique, baptisée « toilettage LLM », consiste à produire et à diffuser en masse des milliers d’articles générés par l’IA truffés de mensonges pro-Kremlin. Le but? Assurez-vous que ces récits s'infiltrent dans les ensembles de données qui alimentent les grands modèles de langage (LLM), conduisant des chatbots comme ChatGPT, Gemini et Grok à amplifier involontairement la propagande russe dans leurs réponses.

Au cœur de cette campagne se trouve le réseau « Pravda » (en russe pour « vérité »), une vaste opération basée à Moscou lancée en avril 2022, peu après l’invasion à grande échelle de l’Ukraine par la Russie.  Il réoriente les médias d’État, réécrit les sources occidentales et inonde le web de mensonges du Kremlin – des laboratoires américains d’armes biologiques, Zelensky qui détourne l’aide, l’OTAN qui provoque la guerre – jusqu’à ce qu’ils deviennent le signal dominant dans les résultats de recherche et les données d’entraînement à l’IA.

Un audit NewsGuard de mars 2025 a révélé que les dix principaux chatbots répétaient des mensonges provenant de la Pravda 33% de l'époque, la contamination grimpant en flèche sur les requêtes de niche où les sources crédibles sont rares. Il ne s'agit pas de dommages collatéraux. C'est l'empoisonnement des données en tant que stratégie, et cela fonctionne.

L’Occident a réagi – tardivement – en réglementant, en filtrant les technologies et en procédant à des retraits. La législation de l’UE sur l’IA et la législation sur les services numériques exigent la transparence. OpenAI et Google ont durci la génération augmentée par récupération (RAG) pour signaler RT et Sputnik. La citation par chatbot de sources russes a chuté de 33% à 15-20%. Ce sont des gains réels. Mais ils sont réactifs, construits sur l'hypothèse que le champ de bataille est toujours l'Internet ouvert, où les règles et les audits peuvent suivre le rythme.

L'Ukraine le sait mieux. Depuis trois ans, elle mène cette guerre en temps réel, sous le feu, avec des sirènes en arrière-plan. Et il gagne, non pas en attendant des normes mondiales, mais en construisant des défenses agiles, impitoyables et alimentées par l’IA que l’Occident devrait étudier, reproduire et mettre à l’échelle.

Commencez par le Centre de lutte contre la désinformation (CCD), une cellule de fusion fonctionnant 24 heures sur 24 et 7 jours sur 7 sous l’égide du Conseil national de sécurité et de défense de l’Ukraine. À la mi-2025, il avait catalogué 191 opérations russes pilotées par l'IA, allant de vidéos Zelensky deepfake à des enregistrements audio synthétiques de généraux se rendant. Grâce à l’apprentissage automatique, le CCD ne se contente pas de réagir, il prédit. Il scanne plus de 1 000 sources dans plusieurs langues, détecte les pics de bots synchronisés et émet des «prébunks» avant que les mensonges ne deviennent viraux.

Il y a les startups nées dans des abris anti-bombes. Osavul, lancé quelques jours après l'invasion, utilise le traitement du langage naturel pour cartographier les réseaux de désinformation à travers TikTok, Telegram et X, alertant les journalistes en quelques secondes. Il a démasqué la plus grande opération de propagande narrée par l’IA jamais réalisée — des vidéos de TikTok en sept langues accusant les dirigeants ukrainiens de corruption. Mantis Analytics géolocalise les combattants à partir d’images raclées, démystifiant la «dilution des faits» russe sur les crimes de guerre. Même des outils controversés tels que Clearview AI sont déployés, non pas pour la surveillance, mais pour démasquer les propagandistes derrière des deepfakes, comme le faux appel Porochenko Zoom de 2023 destiné à déclencher des troubles.

Ce n'est pas théorique. Il est testé au combat. Le hackathon ukrainien de mai 2025, intitulé «AI for Ukraine Recovery», a produit des outils désormais utilisés par les médias de première ligne pour vérifier les frappes et contrer les cyberalertes. Le bureau OSINT de Kyiv Independent utilise l’IA pour créer des contre-discours qui atteignent des millions de personnes. Et la loi ukrainienne sur la lutte contre la désinformation, mise à jour en 2024, établit un équilibre entre la sécurité et la liberté d’expression, offrant un modèle que l’Occident débat toujours au sein des commissions.

Le contraste est saisissant. Alors que Bruxelles rédige des règlements de 400 pages et que la Silicon Valley teste des filtres A/B, l'Ukraine fonctionne avec urgence en temps de guerre. Il n’attend pas le consensus, il itère, déploie, apprend. Lorsque la Russie s’adapte, l’avantage de l’Ukraine diminue de mois en jours. Mais il n'arrête jamais de bouger.

L’erreur de l’Occident est de traiter ce problème comme un problème technologique – un bug à corriger avec les audits et la chaîne de blocs. L'Ukraine y voit une guerre. Et en temps de guerre, on ne gagne pas en étant juste. Vous gagnez en étant plus rapide, plus intelligent et plus impitoyable avec la vérité.

Voici ce que l’Occident doit emprunter:

  • Construire des cellules de fusion, pas des groupes de travail. Le modèle CCD (gouvernement, start-up, médias, OSINT) devrait être reproduit dans toutes les capitales de l’OTAN.
  • Armer le prébunking. L'Ukraine inocule le public avant que les mensonges ne se propagent. Les États-Unis et l'UE poursuivent toujours la viralité après les faits.
  • Adoptez des outils controversés. Clearview AI a des défauts, mais à Kiev, il démasque les menteurs. Parfait est l'ennemi de la survie.
  • Réguler avec des dents, pas du papier. Les plateformes de forces de l’ordre ukrainiennes de 2024 sont appelées à agir. 6 du règlement sur les services numériques% les amendes sont un point de départ: les appliquer.
  • Financer la ligne de front. Les start-up ukrainiennes bénéficient de subventions et de subventions. L’Occident a des milliards pour la sécurité de l’IA — redirection 1% aux laboratoires éprouvés de Kiev.

Le manuel de la Russie – évolutif, bon marché, indétectable – sera copié. La prochaine cible ne sera pas l’Ukraine. Ce sera votre élection, votre réponse à la pandémie, votre débat sur le climat. L'IA amplifiera le menteur le plus bruyant à moins que nous apprenions du pays qui a regardé dans l'abîme et construit un miroir.

L'Ukraine ne demande pas pitié. Il offre une masterclass. L’Occident devrait cesser de réglementer, de donner des conférences et de commencer à écouter et à agir.

Le texte de cet article de blog a été récupéré à partir du EUalive article disponible à l’adresse suivante: https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/

À PROPOS DE GEORGI GOTEV

Georgi Gotev est un journaliste spécialisé dans les affaires européennes, actif en Bulgarie dans les années 1990 et à Bruxelles de 2007 à nos jours. En 2025, il fonde EUalive.

AI4Debunk est financé au titre du programme Horizon Europe (convention de subvention n° 101135757) et rassemble des partenaires multidisciplinaires travaillant à doter les citoyens européens des connaissances, des cadres et des outils essentiels nécessaires pour naviguer dans le paysage complexe de l’information d’aujourd’hui.

Autres oeuvres de AI4Debunk

Le 6 novembre 2025, la table ronde multipartite AI4DEBUNK s’est tenue au Club de la presse de Bruxelles, réunissant plus de 20 experts.
Dans son discours sur l’état de l’Union 2025, la présidente von der Leyen a réaffirmé la lutte de l’UE contre la désinformation, une mission que nous soutenons chez AI4Debunk depuis plus de deux ans!
Le consortium AI4Debunk a donné le coup d’envoi de son assemblée générale les 4 et 5 septembre 2025 au MICC – Media Integration and Communication Center de l’université de Florence, en Italie.