Riunione multilaterale

Evento multilaterale a Bruxelles

Il 5 settembre, Pilot4DEV ha ospitato un incontro multi-stakeholder presso il Press Club di Bruxelles, riunendo esperti, ricercatori e professionisti per scambiare conoscenze, discutere strategie per combattere le notizie false ed esplorare come gli strumenti di IA possono essere progettati per affrontare efficacemente queste sfide.

All'evento, il progetto AI4Debunk insieme ai risultati iniziali del nostro sondaggio online in corso ( ⁇inglese, ⁇francese, ⁇tedesco, ⁇norvegese, ⁇greco, ⁇lettone, ⁇Ucraino) sono stati presentati. Ciò ha posto le basi per una vivace tavola rotonda, i cui punti salienti sono illustrati di seguito.

1. Progettazione di strumenti di progetto

La discussione non solo ha sottolineato gli aspetti sociali della disinformazione, ma ha anche esaminato i fattori psicologici individuali che rendono qualcuno vulnerabile alle informazioni manipolate online. È stato suggerito di tenere conto di questi elementi psicologici nella progettazione degli strumenti di IA del progetto volti a combattere la disinformazione.

I partecipanti hanno espresso interesse per la progettazione degli strumenti, mettendo in discussione la selezione delle quattro interfacce specifiche – plug-in Web, Disinfopedia, App e AR/VR – e il modo in cui si allineano agli obiettivi del progetto. Sono state sollevate preoccupazioni in merito alla necessità di garantire che gli strumenti siano accessibili al grande pubblico, in particolare a coloro che potrebbero trarne i maggiori benefici, come gli anziani o le persone meno esperte di tecnologia. Sebbene ci fosse un certo scetticismo sul fatto che questi gruppi avrebbero prontamente adottato app o sistemi AR / VR, il consenso generale era che gli strumenti, in particolare l'App, dovevano essere user-friendly.

Uno degli obiettivi principali della discussione è stato quello di costruire la fiducia come fonte credibile, che i partecipanti hanno identificato come cruciale per incoraggiare l'uso diffuso degli strumenti. Diverse parti interessate hanno riconosciuto la sfida di creare fiducia, anche per i verificatori di fatti riconosciuti. Le persone vulnerabili, in particolare, sono state considerate meno propense a fidarsi degli strumenti di verifica dei fatti basati sull'IA, mentre gli utenti più informati potrebbero essere disposti a sperimentarli.  

2. Disinformazione vs. disinformazione

I partecipanti hanno inoltre chiesto informazioni sulle nostre definizioni di "disinformazione" e "disinformazione". Ciò ha portato a una discussione più ampia sul concetto di fake news e le sue varie sfumature: le informazioni false esistono su uno spettro che va dalla disinformazione non intenzionale alla disinformazione deliberata.

Il modo in cui le informazioni sono inquadrate, specialmente attraverso l'uso del linguaggio emotivo, è stato visto come un fattore che influenza il modo in cui i lettori interpretano i contenuti. Alcuni hanno osservato che esistono già sistemi di IA in grado di valutare il tono emotivo degli articoli, ma è stata espressa cautela sul rischio di generalizzare eccessivamente diversi tipi di informazioni false.

Data la complessità della determinazione della verità, i verificatori di fatti continuano a fare affidamento sull'analisi umana, un approccio centrale anche per la nostra Disinfopedia. Si è discusso se i media consolidati debbano essere informati quando pubblicano informazioni errate, con alcuni che sostengono una maggiore collaborazione tra giornalisti e verificatori di fatti per garantire l'accuratezza delle notizie. La trasparenza da parte dei giornalisti quando commettono errori è stata vista come la chiave per mantenere la fiducia del pubblico.

3. Attori malintenzionati e ingerenze straniere

La discussione si è poi spostata sul ruolo degli attori malintenzionati nella diffusione della disinformazione. Identificare questi attori e rintracciare le origini di tali minacce è spesso incredibilmente difficile. Il team di DisinfoLab ha condiviso approfondimenti dalla loro vasta ricerca su questo argomento, indicando i loro risultati pubblicati disponibili in questa relazione.

I partecipanti erano curiosi delle nostre esperienze nel tracciare attori malintenzionati. Attingendo al nostro caso di studio, abbiamo evidenziato come le tattiche di disinformazione russe si siano dimostrate particolarmente adattabili. Ad esempio, la loro strategia su piattaforme come TikTok si concentra sull'attrarre un pubblico più giovane e liberale con contenuti coinvolgenti, introducendo gradualmente la propaganda dopo aver prima costruito la fiducia. Questo approccio di incorporare la disinformazione in narrazioni che risuonano con dati demografici specifici rappresenta una minaccia crescente, in particolare sulle piattaforme con controlli della disinformazione più deboli, come TikTok, rispetto ad altre piattaforme, come Meta o X (ex Twitter).

4. AI e pensiero critico

Un altro punto importante sollevato è la necessità di evitare di fare affidamento ciecamente sull'IA quando si contrastano le notizie false e incoraggiare invece la curiosità e la comprensione di come funzionano i sistemi di IA.

Alcuni partecipanti hanno chiesto iniziative per "demistificare l'IA" e modelli linguistici di grandi dimensioni, sostenendo che le persone spesso interagiscono passivamente con l'IA senza comprenderne i processi sottostanti. Hanno suggerito che promuovere la curiosità sull'apprendimento automatico fin dalla tenera età potrebbe aiutare a rendere questi strumenti più accessibili al pubblico in generale.

Questo è in realtà parte della logica alla base dell'introduzione di un fumetto come strumento educativo nel nostro progetto, che ha innescato una discussione sul fatto che educare le persone sul ruolo dell'IA nella lotta alla disinformazione potrebbe portare a un'adozione più ampia di tali strumenti al di là dei soli professionisti.

Le intuizioni acquisite da questa sessione contribuiranno a plasmare i nostri prossimi passi. Man mano che il progetto AI4Debunk progredisce, non vediamo l'ora di continuare questi sforzi di collaborazione con le parti interessate e perfezionare i nostri strumenti.

Rimaniamo impegnati a promuovere ulteriormente il dialogo e l'innovazione nella battaglia contro la disinformazione, lavorando insieme per costruire una società più informata e resiliente.

Altro da AI4Debunk

Il 6 novembre 2025 si è tenuta presso il Club della stampa di Bruxelles la tavola rotonda multilaterale AI4DEBUNK, che ha riunito oltre 20 esperti.
Senza aspettare gli standard globali, l'Ucraina ha costruito agili difese basate sull'IA che l'Occidente dovrebbe studiare, replicare e scalare.
Nel suo Stato dell'Unione 2025, la presidente von der Leyen ha ribadito la lotta dell'UE contro la disinformazione, una missione che sosteniamo in AI4Debunk da oltre due anni!