Senza aspettare gli standard globali, l'Ucraina ha costruito agili difese basate sull'IA che l'Occidente dovrebbe studiare, replicare e scalare.
Immagina un nemico che non dorme mai, costa pochi centesimi per operare e può riscrivere la realtà più velocemente di qualsiasi controllore di fatti umano. Questa è l'arma che la Russia ha costruito con l'intelligenza artificiale: una macchina di disinformazione globale che ha sfornato 3,6 milioni di articoli di propaganda solo nel 2024, seminati in 150 siti di notizie false in 49 paesi.
All'inizio del 2025, sono emersi rapporti che descrivono in dettaglio una sofisticata strategia russa per sfruttare l'intelligenza artificiale per la disinformazione, non solo per colpire direttamente gli esseri umani, ma per corrompere sottilmente i dati di addestramento e i processi di recupero in tempo reale dei sistemi di IA occidentali.
Questa tattica, soprannominata "LLM grooming", prevede la produzione in serie e la diffusione di migliaia di articoli generati dall'IA contaminati da falsità pro-Cremlino. L'obiettivo? Assicurati che queste narrazioni penetrino nei set di dati che alimentano i grandi modelli linguistici (LLM), portando chatbot come ChatGPT, Gemini e Grok ad amplificare involontariamente la propaganda russa nelle loro risposte.
Al centro di questa campagna vi è la rete "Pravda" (in russo "verità"), un'operazione tentacolare con sede a Mosca avviata nell'aprile 2022, poco dopo l'invasione su vasta scala dell'Ucraina da parte della Russia. Riutilizza i media statali, riscrive le fonti occidentali e inonda il web di bugie del Cremlino (laboratori di armi biologiche statunitensi, appropriazione indebita di aiuti da parte di Zelenskyy, guerra provocata dalla NATO) fino a diventare il segnale dominante nei risultati di ricerca e nei dati di addestramento dell'IA.
Un audit di NewsGuard del marzo 2025 ha rilevato che tutti e dieci i principali chatbot hanno ripetuto falsità di origine Pravda 33% dell'epoca, con contaminazioni in aumento su query di nicchia in cui le fonti credibili sono scarse. Questo non è un danno collaterale. È l'avvelenamento dei dati come strategia, e sta funzionando.
L'Occidente ha risposto - tardivamente - con regolamentazione, filtri tecnologici e takedown. La legge sull'IA e la legge sui servizi digitali dell'UE richiedono trasparenza. OpenAI e Google hanno indurito la generazione aumentata di recupero (RAG) per contrassegnare RT e Sputnik. La citazione di chatbot di fonti russe è scesa da 33% da 15 a 20%. Si tratta di guadagni reali. Ma sono reattivi, basati sul presupposto che il campo di battaglia sia ancora l'Internet aperto, dove le regole e gli audit possono tenere il passo.
L'Ucraina lo sa meglio. Per tre anni, ha combattuto questa guerra in tempo reale, sotto il fuoco, con le sirene sullo sfondo. E sta vincendo, non aspettando standard globali, ma costruendo difese agili, spietate e basate sull'IA che l'Occidente dovrebbe studiare, replicare e scalare.
Inizia con il Centro per la lotta alla disinformazione (CCD), una cellula di fusione attiva 24 ore su 24, 7 giorni su 7, nell'ambito del Consiglio per la sicurezza nazionale e la difesa dell'Ucraina. Entro la metà del 2025, aveva catalogato 191 operazioni russe guidate dall'IA, dai video deepfake di Zelenskyy all'audio sintetico dei generali che si arrendono. Utilizzando l'apprendimento automatico, il CCD non si limita a reagire, ma prevede. Esegue la scansione di oltre 1 000 fonti in più lingue, individua picchi di bot sincronizzati e rilascia "prebunk" prima che le bugie diventino virali.
Ci sono le startup nate nei rifugi antiatomici. Osavul, lanciato nei giorni dell'invasione, utilizza l'elaborazione del linguaggio naturale per mappare le reti di disinformazione attraverso TikTok, Telegram e X, avvisando i giornalisti in pochi secondi. Ha smascherato la più grande operazione di propaganda narrata dall'IA di sempre: i video di TikTok in sette lingue che accusano i leader ucraini di corruzione. Mantis Analytics geolocalizza i combattenti dalle immagini raschiate, sfatando la "diluizione dei fatti" russa sui crimini di guerra. Vengono utilizzati anche strumenti controversi come l'IA Clearview, non per la sorveglianza, ma per smascherare i propagandisti dietro i deepfake, come la falsa chiamata Poroshenko Zoom del 2023 destinata a scatenare disordini.
Questo non è teorico. È testato in battaglia. L'hackathon ucraino del maggio 2025, "AI for Ukraine Recovery", ha prodotto strumenti ora utilizzati dai media in prima linea per verificare gli scioperi e contrastare gli allarmi informatici. Lo sportello OSINT dell'Indipendente di Kiev utilizza l'IA per creare contronarrazioni che raggiungono milioni di persone. E la legge ucraina sulla lotta alla disinformazione, aggiornata nel 2024, bilancia la sicurezza con la libertà di parola, offrendo un modello che l'Occidente continua a discutere in seno alle commissioni.
Il contrasto è netto. Mentre Bruxelles redige regolamenti di 400 pagine e filtri per i test A / B della Silicon Valley, l'Ucraina opera con urgenza in tempo di guerra. Non attende il consenso: itera, distribuisce, apprende. Quando la Russia si adatta, il margine dell'Ucraina si riduce da mesi a giorni. Ma non smette mai di muoversi.
L'errore dell'Occidente è trattare questo problema come un problema tecnico, un bug da correggere con audit e blockchain. L'Ucraina la vede come una guerra. E in guerra non si vince se si è onesti. Si vince essendo più veloci, più intelligenti e più spietati con la verità.
Ecco cosa l'Occidente deve prendere in prestito:
Costruire cellule di fusione, non gruppi di lavoro. Il modello CCD — governo, start-up, media, OSINT — dovrebbe essere replicato in ogni capitale della NATO.
Weaponize prebunking. L'Ucraina inocula il pubblico prima che le bugie si diffondano. Gli Stati Uniti e l'UE inseguono ancora la viralità dopo il fatto.
Abbraccia strumenti controversi. L'IA di Clearview ha dei difetti, ma a Kiev smaschera i bugiardi. La perfezione è nemica della sopravvivenza.
Regolare con i denti, non con la carta. Le piattaforme delle forze dell'ordine ucraine del 2024 devono agire. 6 della legge sui servizi digitali% le multe sono un inizio: applicarle.
Finanziare la prima linea. Le start-up ucraine funzionano con grinta e sovvenzioni. L'Occidente ha miliardi per la sicurezza dell'IA — reindirizzare 1% ai laboratori comprovati di Kiev.
Il playbook della Russia – scalabile, economico, non rilevabile – sarà copiato. Il prossimo obiettivo non sarà l'Ucraina. Sarà la vostra elezione, la vostra risposta alla pandemia, il vostro dibattito sul clima. L'IA amplificherà il bugiardo più rumoroso a meno che non impariamo dal paese che ha fissato l'abisso e costruito uno specchio.
L'Ucraina non chiede pietà. Sta offrendo una masterclass. L'Occidente dovrebbe smettere di regolamentare e tenere conferenze e iniziare ad ascoltare e agire.
Il testo in questo post del blog è stato recuperato dal EUalive articolo disponibile all'indirizzo https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/
INFORMAZIONI SU GEORGI GOTEV
Georgi Gotev è un giornalista specializzato in affari europei, attivo in Bulgaria negli anni '90 e a Bruxelles dal 2007 ad oggi. Nel 2025 ha fondato EUalive.
AI4Debunk è finanziato nell'ambito del programma Orizzonte Europa (accordo di sovvenzione n. 101135757) e riunisce partner multidisciplinari che lavorano per fornire ai cittadini europei le conoscenze, i quadri e gli strumenti critici necessari per navigare nel complesso panorama informativo odierno.




