Mettere insieme i pezzi: Perché le dinamiche linguistiche, mediatiche e dell'IA e le politiche dell'UE devono unirsi per sfatare la disinformazione

Negli ultimi anni, la disinformazione è passata dagli scatti occasionali di "notizie false" a una minaccia sistemica che utilizza la manipolazione linguistica, i meccanismi dei media, l'intelligenza artificiale e le strategie politiche transnazionali per formare l'opinione pubblica e minare i processi democratici. Due filoni di ricerca, uno relativo ai "micro" meccanismi di disinformazione e l'altro alle risposte politiche e di governance ad alto livello, sono spesso rimasti separati. È tempo di riunirli.

Anatomia della minaccia: Linguaggio, meccanismi dei media e IA generativa

Le campagne di disinformazione sono realizzate attraverso vari livelli, che sono interconnessi, il che le rende molto efficaci (D'Andrea et al., 2025a). In primo luogo, a livello di linguaggio, viene utilizzato il contenuto manipolativo, che si basa sulle emozioni e sulla polarizzazione, influenzando le percezioni piuttosto che informare. Viene poi diffuso attraverso i vari meccanismi dei media e della piattaforma, che si basano sui pregiudizi cognitivi degli utenti, che sono attratti da contenuti sensazionali e polarizzanti. Inoltre, la comparsa dell'IA generativa rende questo problema particolarmente importante, in quanto è possibile produrre una grande quantità di contenuti falsi molto credibili, che è molto difficile da rilevare (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Ciò, naturalmente, ha conseguenze molto importanti per la sfera pubblica, incidendo sulle opinioni politiche e sui processi decisionali.

Il ruolo dell'IA: Come rischio e come strumento 

L'IA è un'arma a doppio taglio. Da un lato, l'IA generativa facilita le campagne di disinformazione su larga scala (Shoaib et al., 2023; Feuerriegel et al., 2023). D'altro canto, gli strumenti di IA possono rilevare, tracciare e contrastare i contenuti manipolativi se utilizzati in modo responsabile (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Le tecniche comprendono il rilevamento interlinguistico, l'analisi della rete o le condotte automatizzate di verifica dei fatti (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Inoltre, i sistemi di IA spiegabili possono contribuire all'individuazione dei deepfake e all'analisi dei modelli di diffusione della rete (Curtis et al., 2025; Truică & Apostol, 2022).

Perché la politica da sola non è sufficiente, ma la politica è ancora essenziale

In termini di politica, l'Unione europea ha messo in atto programmi come l'Osservatorio europeo dei media digitali (EDMO) e la legge sui servizi digitali per aumentare l'alfabetizzazione mediatica, la responsabilità e la trasparenza tra i suoi Stati membri (Commissione europea, 2024; Sánchez Gonzales et al., 2024; D'Andrea et al., 2025b). Le reti collaborative che includono verificatori di fatti, giornalisti e istituzioni accademiche sono parte integrante del controbilanciamento su larga scala (Frau ‑Meigs et al., 2025). Di solito sono iniziative che rispondono al problema e, quindi, controllano le conseguenze della disinformazione senza affrontarne le radici cognitive, linguistiche o algoritmiche (Leite et al., 2025). Le politiche che si formano senza essere supportate dalla ricerca in settori come l'inquadramento emotivo, le strategie persuasive e l'amplificazione guidata dall'IA hanno il rischio di essere troppo ampie o di ‌.

Fusione di micro e macro-verso una strategia olistica

L'attenuazione efficace della disinformazione deve essere affrontata sia a livello micro che macro:

  • Vigilanza a microlivello: i cittadini devono diventare in grado di individuare narrazioni manipolative, contenuti emotivamente inquadrati e/o amplificati algoritmicamente (Arribas et al., 2025).
  • Governance a livello macroeconomico: ciò richiederebbe quadri normativi che garantiscano la trasparenza, la responsabilità delle piattaforme, l'accesso ai dati per consentire un'analisi indipendente e il coordinamento generale tra gli Stati membri dell'UE e le reti di verifica dei fatti (Pilati & Venturini, 2025; Commissione europea, 2024).

Questi livelli devono essere in conversazione tra loro: l'elaborazione delle politiche dovrebbe essere basata sulla ricerca su ciò che rende persuasiva la disinformazione e la ricerca dovrebbe essere portata avanti attraverso strumenti di politica strutturale.

Verso la resilienza democratica: Cosa dovremmo fare?

Emergono tre priorità interconnesse:

  1. incoraggiare la ricerca interdisciplinare per contribuire a individuare nuove tattiche, tecniche e procedure di disinformazione in continua evoluzione per migliorare l'individuazione tra lingue, culture e piattaforme (D'Andrea et al., 2025a; Arribas et al., 2025).
  2. Impegnarsi per l'alfabetizzazione mediatica su larga scala e il pensiero critico, incorporandolo nelle scuole, nei programmi comunitari e nelle campagne pubbliche (Frau ‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
  3. introdurre e applicare garanzie strutturali, quali obblighi di dovuta trasparenza per le piattaforme online, meccanismi di risposta alle crisi, etichettatura dei contenuti generati dall'IA e vigilanza cooperativa a livello dell'UE (Commissione europea, 2024; Pilati & Venturini, 2025).

Conclusione

La disinformazione non può essere sconfitta solo dalla ricerca o dalla regolamentazione; è essenziale un approccio più olistico che tragga informazioni dalla linguistica, dall'IA, dagli studi sui media e dalle politiche. Solo attraverso questa integrazione a livello di microcomprensioni della persuasione con la macro governance e le misure normative le società possono costruire la resilienza per salvaguardare i processi democratici (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).

Riferimenti

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Strategie preventive contro la disinformazione: Uno studio sulle attività di alfabetizzazione digitale e dell'informazione condotte da organizzazioni di verifica dei fatti. Open Research Europe, 5, 122.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Veracità: Un sistema di verifica dei fatti AI open source. arXiv prestampa arXiv: 2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Approfondimenti linguistici, meccanismi mediatici e ruolo dell'IA nella diffusione e nell'impatto della disinformazione. Giornale dell'informazione, della comunicazione e dell'etica nella società.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Riesame delle politiche: contrastare la disinformazione nelle politiche dell'era digitale e nelle iniziative per salvaguardare la democrazia in Europa. Informazione Polity, 30(1), 82-91.

Commissione europea. (2024). Vero o falso? Come difendersi dalla disinformazione. Notizie della Commissione. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025). Decifrare l'autenticità nell'era dell'IA: in che modo le immagini di disinformazione generate dall'IA e gli strumenti di rilevamento dell'IA influenzano i giudizi di autenticità. AI & SOCIETÀ, 1-12.

Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). La ricerca può contribuire a contrastare la disinformazione generata dall'IA. Comportamento umano della natura, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Lotta alla disinformazione attraverso l'alfabetizzazione mediatica: Dalle pratiche attuali all'elaborazione delle politiche in Europa. InMedia. Il Giornale francese di studi sui media, (10).

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, maggio). Uno studio trasversale sull'uso delle tecniche di persuasione nella disinformazione online. In Companion Proceedings of the ACM on Web Conference 2025 (pagg. 1100-1103).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Percezioni dei giornalisti in merito ai rischi dell'intelligenza artificiale e della disinformazione. Giornalismo e media, 6(3), 133.

Pilati, F., & Venturini, T. (2025). L'uso dell'intelligenza artificiale nella controdisinformazione: Una mappatura (web) a livello mondiale. Frontiers in Political Science, 7, 1517726.

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). programmi di alfabetizzazione in materia di intelligenza artificiale e di disinformazione utilizzati dai verificatori di fatti europei. Catalan Journal of Communication & Studi culturali, 16(2), 237-255.

Shukla, A. K., & Tripathi, S. (2024). disinformazione generata dall'IA nell'anno elettorale 2024: misure dell'Unione europea. Frontiers in Political Science, 6, 1451601.

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, novembre). Deepfake, disinformazione e disinformazione nell'era dell'IA di frontiera, dell'IA generativa e dei modelli di IA di grandi dimensioni. Nel 2023 conferenza internazionale su computer e applicazioni (ICCA) (pagg. 1-7). IEEE.

Truică, C. O., & Apostol, E. S. (2022). Misrobærta: Trasformatori contro disinformazione. Matematica, 10(4), 569.

Scarica l'articolo completo in pdf qui.

A proposito di Alessia D'Andrea

Ricercatore IRPPS. La sua ricerca si concentra su tecnologie web, interazione uomo-computer, scienze sociali, marketing / business virtuale e salute.

Informazioni su Arianna D'Ulizia

Ricercatore IRPPS. I suoi interessi di ricerca includono il social computing e l'interazione uomo-computer, in particolare l'elaborazione del linguaggio naturale e multimodale e il design dell'interazione centrato sull'utente .

Guarda questo video istituzionale che presenta la visione di AI4Debunk

Altro da AI4Debunk

Il mini-simposio AI4Debunk: IA e disinformazione – Tecnologia, alfabetizzazione mediatica e politica esploreranno le sfide e le opportunità che l'intelligenza artificiale apporta alla lotta contro la disinformazione.
EUalive ha organizzato un dibattito pubblico volto a esplorare in che modo gli strumenti basati sull'IA possano sostenere gli sforzi volti a contrastare le notizie false e la disinformazione.
Il 6 gennaio 2026 si è tenuta a Riga una discussione multipartecipativa dal titolo "L'uso dell'intelligenza artificiale nella lotta alla disinformazione", organizzata dall'Università della Lettonia.