Scientifico Pubblicazioni

Trova tutte le pubblicazioni scientifiche prodotte dai partner AI4Debunk, presentando le ultime scoperte scientifiche del progetto.

Autori:
Axel Brando, Lucas Berry, David Mege

Riassunto:
I modelli di diffusione generativa, notevoli per il loro grande numero di parametri (superiore a 100 milioni) e il funzionamento all'interno di spazi di immagine ad alta dimensione, pongono sfide significative per i tradizionali metodi di stima dell'incertezza a causa delle richieste computazionali. In questo lavoro, introduciamo un framework innovativo, Diffusion Ensembles for Capturing Uncertainty (DECU), progettato per stimare l'incertezza epistemica per i modelli di diffusione. Il framework DECU introduce un nuovo metodo che addestra in modo efficiente gruppi di modelli di diffusione condizionale incorporando un insieme statico di parametri pre-addestrati, riducendo drasticamente il carico computazionale e il numero di parametri che richiedono addestramento. Inoltre, DECU impiega Pairwise-Distance Estimators (PaiDE) per misurare con precisione l'incertezza epistemica valutando le informazioni reciproche tra uscite del modello e pesi in spazi ad alta dimensione. L'efficacia di questo framework è dimostrata attraverso esperimenti sul set di dati ImageNet, evidenziando la sua capacità di catturare l'incertezza epistemica, in particolare nelle classi di immagini sottocampionate.

Tipo di pubblicazione:
Documento della conferenza

Editore:
Quarantesima conferenza sull'incertezza nell'intelligenza artificiale

Accesso qui

Autori:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.

Riassunto:
Negli ultimi tempi, la crescente diffusione dei media sintetici, noti come deepfakes, è stata resa possibile dal rapido progresso delle tecnologie di intelligenza artificiale, in particolare degli algoritmi di apprendimento profondo. Le crescenti preoccupazioni per la crescente disponibilità e credibilità dei deepfake hanno spinto i ricercatori a concentrarsi sullo sviluppo di metodi per rilevarli. In questo campo i ricercatori dell'AIMH Lab dell'ISTI CNR, in collaborazione con ricercatori di altre organizzazioni, hanno condotto ricerche, indagini e progetti per contribuire a contrastare questa tendenza, esplorando nuove soluzioni e minacce. Questo articolo riassume gli sforzi più recenti compiuti in questo settore dai nostri ricercatori e in collaborazione con altre istituzioni ed esperti.

Tipo di pubblicazione:
Documento della conferenza

Editore:
Atti del seminario CEUR

Accesso qui

Autori:
Stanciu, Cristian e Ionescu, Bogdan e Cuccovillo, Luca e Papadopoulos, Symeon e Kordopatis-Zilos, Giorgos e Popescu, Adrian e Caldelli, Roberto

Riassunto:
La generazione e la manipolazione dei media sintetici hanno visto rapidi progressi negli ultimi anni, rendendo sempre più facile creare contenuti multimediali indistinguibili per l'osservatore umano. Inoltre, i contenuti generati possono essere utilizzati in modo malevolo da individui e organizzazioni al fine di diffondere disinformazione, rappresentando una minaccia significativa per la società e la democrazia. Di conseguenza, vi è un'urgente necessità di strumenti di IA volti a facilitare un processo di verifica dei media tempestivo ed efficace. Il seminario MAD'24 mira a riunire persone provenienti da contesti diversi che si dedicano alla lotta alla disinformazione nel settore multimediale attraverso i mezzi dell'IA, promuovendo un ambiente per esplorare idee innovative e condividere esperienze. Le aree di ricerca di interesse comprendono l'identificazione di contenuti manipolati o generati, insieme all'indagine sulla diffusione della disinformazione e le sue ripercussioni sociali. Riconoscendo l'importanza della multimedialità, il workshop sottolinea l'analisi congiunta delle varie modalità all'interno del contenuto, poiché la verifica può essere migliorata aggregando più forme di contenuto.

Tipo di pubblicazione:
Documento della conferenza

Editore:
Atti del terzo workshop internazionale dell'ACM sull'IA multimediale contro la disinformazione

Accesso qui

Autori:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Riassunto:
Guardare una sequenza video in cui una persona in primo piano è rappresentata non è più come tempo fa. I deepfake hanno rivoluzionato il nostro modo di guardare tali contenuti e al giorno d'oggi siamo più spesso abituati a chiederci se ciò che stiamo vedendo è reale o è solo una mistificazione. In questo contesto di disinformazione generalizzata, la necessità di soluzioni affidabili per aiutare gli utenti comuni, e non solo, a fare una valutazione su questo tipo di sequenze video è fortemente imminente. In questo articolo, viene introdotto un nuovo approccio che sfrutta le anomalie dei fotogrammi di superficie temporale per rivelare video deepfake. Il metodo cerca possibili discrepanze, indotte dalla manipolazione deepfake, nelle superfici appartenenti alla scena catturata e nella loro evoluzione lungo l'asse temporale. Queste caratteristiche vengono utilizzate come input di una pipeline basata su reti neurali profonde per eseguire una valutazione binaria sul video stesso. I risultati sperimentali testimoniano che tale metodologia può ottenere prestazioni significative in termini di accuratezza del rilevamento.

Tipo di pubblicazione:
Documento della conferenza

Editore:
Conferenza IEEE/CVF 2024 su Computer Vision e Pattern Recognition Workshops (CVPRW)

Accesso qui

Autori:
Pascaline Gaborit

Riassunto:
Le organizzazioni internazionali classificano la disinformazione come una delle principali minacce alla democrazia e alle istituzioni da oltre un decennio. Le tecnologie digitali reinventano e trasformano profondamente gli stili di vita moderni, i contesti dei cittadini e delle imprese. L'IA sta portando una nuova interruzione nel modo in cui accediamo alla conoscenza e creiamo, difendiamo e comprendiamo le informazioni. Può anche confondere i confini tra informazioni reali e informazioni manipolate con l'emergere di "fake news", riferimenti incrociati di reti automatiche e "deep fake". I sistemi di IA aumentano il potenziale per creare contenuti falsi realistici e campagne di disinformazione mirate. La disinformazione va oltre le semplici voci per ingannare deliberatamente e distorcere le informazioni basate su prove attraverso dati fabbricati. Anche le istituzioni europee si sono recentemente concentrate sull'individuazione della disinformazione legata alla manipolazione delle informazioni e alle ingerenze da parte di attori stranieri: Manipolazione e interferenza delle informazioni straniere. L'articolo individua le tendenze e le preoccupazioni relative alla disinformazione e all'IA. Esamina la percezione della disinformazione, i suoi impatti e le risposte, tra cui la legge dell'UE sull'IA e le politiche delle piattaforme online. Fornisce un primo approccio analitico all'argomento basato sugli attuali dibattiti dei ricercatori, sui primi risultati delle nostre indagini del 2024, sulle interviste e sull'analisi di centinaia di notizie false online. Cerca di capire in che modo i cittadini e i portatori di interessi percepiscono la disinformazione e individua i possibili impatti. Analizza anche le sfide e i vincoli attuali, le opportunità e i limiti per affrontare la manipolazione e le interferenze. L'articolo esamina i processi e gli impatti attuali della disinformazione (2), la presentazione dei principali risultati dell'indagine online della Corte sulle percezioni della disinformazione (3), le attuali risposte normative dell'UE (4) e i punti di discussione (5). Sosteniamo in questo articolo che c'è un cambiamento gigantesco nel modo in cui accediamo alle informazioni, ma che le risposte alla disinformazione sono ancora in una fase iniziale. L'articolo dimostra inoltre che nei paesi europei vi è una maggiore consapevolezza degli effetti della disinformazione, ma anche un divario tra la capacità di individuare le "notizie false" e la disinformazione e una comprensione limitata dei processi, delle minacce e degli attori coinvolti nella diffusione della disinformazione.

Tipo di pubblicazione:
Documento di giornale

Editore:
Giornale di Scienze Politiche e Relazioni Internazionali

Accesso qui

Autori:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra, Axel Brando

Riassunto:

In questo documento, presentiamo una nuova applicazione di modelli causali strutturali (SCM) e la procedura di abduction-action-prediction a un set di serie temporali nel contesto di un problema del mondo reale nell'industria farmaceutica. Miriamo a stimare controfattuale per il volume delle vendite di un farmaco che è stato influenzato dall'ingresso sul mercato di un farmaco generico concorrente. Utilizziamo architetture basate su encoder-decoder, applicando un autoencoder variazionale condizionale e introducendo anche l'uso di autoencoder radi condizionali, che non erano mai stati utilizzati nella letteratura controfattuale. La metodologia proposta richiede la disponibilità di eventi storici e serie temporali senza eventi e ha il vantaggio di non fare affidamento su covariate di controllo che potrebbero non essere disponibili, superando chiaramente la stima controfattuale di base di una previsione. Valutiamo il nostro approccio utilizzando il set di dati di vendita reale della nostra azienda, nonché i set di dati sintetici e semisintetici che imitano il contesto del problema, dimostrandone l'efficacia. Abbiamo applicato con successo questo modello nella nostra azienda, fornendo informazioni utili per la pianificazione aziendale, l'allocazione degli investimenti e la definizione degli obiettivi.

Tipo di pubblicazione:
Articolo del workshop

Editore:
Seminario di NeurIPS24 sull'apprendimento della rappresentazione causale

Accesso qui

Autori:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis, Arianna D'Ulizia

Riassunto:
L'aumento delle piattaforme digitali ha facilitato la rapida diffusione della disinformazione, che pone notevoli sfide sociali, politiche ed economiche. I grafici della conoscenza (KG) stanno emergendo come strumenti efficaci per migliorare l'accuratezza, l'interpretabilità e la scalabilità dei sistemi di rilevamento delle notizie false, affrontando le limitazioni degli approcci tradizionali basati sull'apprendimento automatico che si basano principalmente sull'analisi linguistica. Questo lavoro contiene una revisione della letteratura che sintetizza i risultati di recenti studi sull'applicazione dei KG nel rilevamento della disinformazione. Identifichiamo come i KG migliorano il rilevamento codificando relazioni reali, analizzando il contesto e migliorando l'interpretabilità del modello, discutendo anche delle attuali limitazioni in termini di scalabilità, completezza dei dati e adattabilità contestuale. Gli studi rivisti sottolineano la necessità di ricerche future incentrate su modelli KG scalabili, in tempo reale e interlinguistici per rafforzare le capacità di rilevamento della disinformazione a livello globale. Inoltre, presentiamo i risultati preliminari di due casi d'uso, mostrando una metodologia per la costruzione di KG che possono servire come strumenti utili per combattere la diffusione della disinformazione.

Tipo di pubblicazione:
Documento della conferenza

Editore:
Conferenza internazionale 2024 sull'ingegneria e le tecnologie emergenti (ICEET)

Accesso qui

Autori:
Alessia D'Andrea, Giorgia Fusacchia, Arianna D'Ulizia

Riassunto:
Il presente documento esamina la risposta sfaccettata dell'Unione europea alla questione pervasiva della disinformazione, una sfida che si è intensificata dall'annessione della Crimea nel 2014. La disinformazione rappresenta una minaccia significativa per i processi democratici e il benessere pubblico. L'approccio dell'Unione europea combina misure normative, partenariati strategici e iniziative di alfabetizzazione mediatica per affrontare questo fenomeno, salvaguardando nel contempo i principi democratici fondamentali, come la libertà di espressione. Tra le misure chiave figurano il codice di buone pratiche sulla disinformazione e la legge sui servizi digitali, che mirano a responsabilizzare le piattaforme digitali e a garantire la trasparenza. Inoltre, iniziative come la task force East StratCom e il sistema di allarme rapido evidenziano gli sforzi dell'Unione europea per contrastare la disinformazione come strumento di guerra ibrida. Questo documento sottolinea anche il ruolo critico dei cittadini, che l'Unione europea cerca di responsabilizzare attraverso programmi di alfabetizzazione mediatica, consentendo loro di riconoscere e resistere ai contenuti manipolativi. Esaminando le interazioni tra le azioni dei governi, il coinvolgimento del settore privato e il coinvolgimento dei cittadini, il presente studio fornisce un'analisi completa della strategia dell'Unione europea contro la disinformazione e valuta le sfide e gli orientamenti futuri necessari per sostenere la resilienza democratica in un panorama digitale in evoluzione.

Tipo di pubblicazione:
Articolo scientifico

Editore:
Polity dell'informazione

Accesso qui

Autori:
Alessia D'Andrea, Giorgia Fusacchia, Arianna D'Ulizia

Riassunto:

Scopo
Utilizzando un approccio multidisciplinare, questo studio mira a tracciare il percorso delle campagne di disinformazione dalla loro individuazione attraverso spunti linguistici di credibilità alla promozione attraverso i meccanismi di diffusione e, infine, valutare il loro impatto sul contesto socio-politico.

Progettazione/metodologia/approccio
Il presente studio fornisce una panoramica approfondita di quattro aspetti fondamentali della disinformazione: le caratteristiche linguistiche che contraddistinguono i contenuti destinati a ingannare e manipolare l'opinione pubblica, i meccanismi mediatici che ne facilitano la diffusione sfruttando i processi cognitivi del suo pubblico, le minacce poste dal crescente uso dell'intelligenza artificiale generativa per diffondere la disinformazione e le conseguenze più ampie che tali dinamiche di disinformazione hanno sull'opinione pubblica e, di conseguenza, sui processi decisionali politici.

Risultanze
Di conseguenza, il documento fornisce un esame interdisciplinare e olistico del fenomeno, facendo riferimento ai suoi elementi pluralizzati per evidenziare l'importanza della responsabilità delle piattaforme, delle campagne di alfabetizzazione mediatica tra i cittadini e della cooperazione interattiva tra settore pubblico e privato come misure per rafforzare la resilienza contro la minaccia della disinformazione.

Originalità/valore
Lo studio sottolinea la necessità di aumentare la responsabilità della piattaforma, promuovere l'alfabetizzazione mediatica tra gli individui e sviluppare la cooperazione tra il settore pubblico e quello privato. Rafforzare la resilienza alla disinformazione e garantire l'adattabilità dell'UE di fronte alle mutevoli minacce digitali sono gli obiettivi di questa strategia integrata. In definitiva, il documento sostiene una strategia equa e aperta che protegga la libertà di espressione e rafforzi le istituzioni democratiche in un momento in cui la disinformazione digitale è in aumento.

Tipo di pubblicazione:
Articolo scientifico

Editore:
Giornale dell'informazione, della comunicazione e dell'etica nella società (2025)

Accesso qui

Autori:
Eddie Conti, Alejandro Astruc, Álvaro Parafita, Axel Brando

Riassunto:

Capire come le informazioni si propagano attraverso i modelli Transformer è una sfida chiave per l'interpretabilità. In questo lavoro, studiamo gli effetti delle perturbazioni minime dei token sullo spazio di incorporamento. Nei nostri esperimenti, analizziamo la frequenza con cui i token producono spostamenti minimi, evidenziando che i token rari di solito portano a spostamenti più grandi. Inoltre, studiamo come le perturbazioni si propagano attraverso gli strati, dimostrando che le informazioni di input sono sempre più mescolate in strati più profondi. I nostri risultati convalidano l'ipotesi comune che i primi livelli di un modello possano essere utilizzati come proxy per le spiegazioni del modello. Nel complesso, questo lavoro introduce la combinazione di perturbazioni di token e spostamenti sullo spazio di incorporamento come un potente strumento per l'interpretabilità del modello.

Tipo di pubblicazione:
Articolo del workshop

Editore:
Workshop IJCAI 2025 sull'intelligenza artificiale spiegabile

Accesso qui

Autori:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Riassunto:

La disinformazione è sempre più indotta dal ricorso a contenuti realistici alterati o completamente generati sinteticamente, generalmente noti come deepfake. Ciò pone la necessità di strumenti affidabili in grado di rivelare tali contenuti fasulli per evitare la polarizzazione del pensiero delle persone. Sono state presentate diverse tecniche, il cui comune denominatore è la ricerca di alcune incongruenze indotte dal processo di falsa generazione e evidenziate guardando a caratteristiche specifiche. Sembra che la possibile combinazione di varie caratteristiche distintive potrebbe fornire risultati più efficaci. In questa prospettiva e a seguito del nostro precedente studio su questo argomento, proponiamo di indagare una nuova funzionalità che tenga sostanzialmente conto delle relazioni incorporate esistenti all'interno dell'intera scena di acquisizione al momento dell'acquisizione dell'immagine (video) e quindi rappresentate dai valori dei pixel dell'immagine. L'idea alla base è che il processo di generazione deepfake può rompere tali dipendenze intrinseche tra l'illuminazione (intensità e direzione), le superfici degli oggetti (posizione e riflettanza) e il rumore di acquisizione, evidenziando così una possibile manipolazione. Secondo questo, un descrittore di funzionalità, chiamato Local Surface Descriptor, è stato costruito e utilizzato per addestrare modelli basati sulla CNN per il rilevamento di deepfake. I risultati sperimentali condotti su diversi contesti operativi dimostrano una significativa accuratezza di rilevamento fino a 90%.

Tipo di pubblicazione:
Documento della conferenza

Editore:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Emirati arabi uniti, 2024

Accesso qui

Autori:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Riassunto:

La capacità effettiva di generare immagini realistiche completamente sintetiche sta migliorando giorno dopo giorno e questo è particolarmente vero per le immagini che rappresentano volti umani che sembrano indistinguibili dalle persone reali. Ciò pone la necessità cruciale di sviluppare strumenti in grado di discernere tra persone vere e non esistenti rilevando alcune eventuali incongruenze incorporate nelle immagini durante il processo di generazione. La differenza principale tra un'immagine incontaminata e una generata da deepfake è che, nel secondo caso, non c'è stata un'acquisizione efficace della fotocamera; Quindi tutte le varie interrelazioni tra gli elementi appartenenti alla scena (luci, riflettanza, posizioni degli oggetti nello spazio 3D) non sono prese dal mondo reale in quel preciso istante di tempo ma solo riprodotte artificialmente. In base a tale considerazione, in questo lavoro, introduciamo i fotogrammi di superficie delle telecamere locali come possibile mezzo per rappresentare queste specifiche caratteristiche ambientali al fine di evidenziare le differenze. L'analisi sperimentale effettuata ha testimoniato che questa caratteristica può garantire un altissimo livello di accuratezza e un significativo grado di generalizzazione.

Tipo di pubblicazione:
Documento della conferenza

Editore:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Emirati arabi uniti, 2024

Accesso qui

Autori:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Riassunto:

Straordinarie immagini irreali possono essere realizzate con tecniche di intelligenza artificiale pow-erful. Vari strumenti a disposizione di tutti sono in grado di ricreare contenuti di alta qualità, soprattutto generando intere immagini completamente sintetiche. Tra le architetture esistenti, i modelli basati sulla diffusione possono facilmente produrre qualsiasi tipo di immagine, comprese le immagini facciali umane, dando un prompt come un testo. Tali contenuti falsi sono spesso utilizzati per diffondere disinformazione e ciò solleva preoccupazioni in merito alla sicurezza delle persone. Attualmente, è sempre più difficile sviluppare strumenti affidabili per distinguere tra persone reali e generate (anche inesistenti). Inoltre, la grande quantità di implementazioni basate sulla diffusione pone il problema per tali rivelatori di generalizzare su nuove tecniche generative. Per affrontare questi problemi, proponiamo di indagare la capacità di un tratto distintivo, basato sull'ambiente di acquisizione delle immagini, di individuare immagini facciali basate sulla diffusione da quelle incontaminate. Infatti, le immagini generate non dovrebbero contenere le caratteristiche proprie della fase di acquisizione eseguita attraverso una vera e propria fotocamera. Tali incongruenze possono essere evidenziate mediante telai di superficie locali recentemente introdotti. Questa funzione tiene conto degli oggetti e delle superfici coinvolte nella scena, che influenzano il processo di acquisizione della fotocamera, insieme a ulteriori informazioni intrinseche legate al dispositivo, nonché illuminazione e riflessi che influenzano l'intero scenario. Il documento esplora la capacità di questa caratteristica di generalizzarsi verso diversi set di dati e nuovi metodi generativi sconosciuti durante l'allenamento. I risultati sperimentali evidenziano che tale caratteristica fornisce ancora livelli significativi di accuratezza di rilevamento anche in questi casi.

Tipo di pubblicazione:
Documento della conferenza

Editore:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Emirati arabi uniti, 2024

Accesso qui

Autori:
Álvaro Parafita, Tomas Garriga, Axel Brando, Francisco J. Cazorla

Riassunto:

Tra le tecniche di spiegabilità, SHAP si distingue come una delle più popolari, ma spesso trascura la struttura causale del problema. In risposta, do-SHAP utilizza query interventistiche, ma la sua dipendenza da estimands ostacola la sua applicazione pratica. Per affrontare questo problema, proponiamo l'uso di approcci estimand-agnostici, che consentono la stima di qualsiasi query identificabile da un singolo modello, rendendo fattibile il do-SHAP su grafici complessi. Sviluppiamo anche un nuovo algoritmo per accelerare significativamente il suo calcolo a un costo trascurabile, nonché un metodo per spiegare i processi di generazione dei dati inaccessibili. Dimostriamo la stima e le prestazioni computazionali del nostro approccio e lo convalidiamo su due set di dati del mondo reale, evidenziando il suo potenziale nell'ottenere spiegazioni affidabili.

Tipo di pubblicazione:
Documento della conferenza

Editore:
La trentanovesima conferenza annuale sui sistemi di elaborazione delle informazioni neurali (NeurIPS 2025)

Accesso qui

Autori:
Alamgir Munir Qazi, John Philip McCrae, Jamal Nasir

Riassunto:

La proliferazione della disinformazione richiede sistemi di verifica dei fatti solidi ma efficienti dal punto di vista computazionale. Mentre gli attuali approcci allo stato dell'arte sfruttano i Large Language Models (LLM) per generare motivazioni esplicative, questi metodi affrontano significative barriere computazionali e rischi di allucinazioni nelle implementazioni del mondo reale. Presentiamo DeReC (Dense Retrieval Classification), un framework leggero che dimostra come gli incorporamenti di testo generici possano sostituire efficacemente gli approcci autoregressivi basati su LLM nelle attività di verifica. Combinando il recupero denso con la classificazione specializzata, il nostro sistema raggiunge una migliore precisione pur essendo significativamente più efficiente. DeReC supera gli LLM che generano spiegazioni in termini di efficienza, riducendo il runtime di 95% su RAWFC (23 minuti 36 secondi rispetto a 454 minuti 12 secondi) e da 92% su LIAR-RAW (134 minuti 14 secondi rispetto a 1692 minuti 23 secondi), mostrando la sua efficacia in diverse dimensioni del set di dati. Sul set di dati RAWFC, DeReC raggiunge un punteggio F1 di 65,58%, superando il metodo all'avanguardia L-Defense (61.20%). I nostri risultati dimostrano che i sistemi basati sul recupero accuratamente progettati possono eguagliare o superare le prestazioni LLM in attività specializzate, pur essendo significativamente più pratici per l'implementazione nel mondo reale.

Tipo di pubblicazione:
Documento della conferenza

Editore:
5° Convegno su Lingua, Dati e Conoscenza

Accesso qui

Autori:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli e Stefano Berretti

Riassunto:

Per il MediaEval 2025 SynthIm Challenge Task A (Synthetic Image Detection), abbiamo identificato uno spostamento di distribuzione critico tra i dati di addestramento e test forniti, rendendo il primo un rappresentante scadente per il dominio di destinazione. Il nostro approccio affronta direttamente questa sfida incorporando il set di convalida più coerente dal punto di vista stilistico nei nostri dati di allenamento e sfruttando un CLIP ViT-L/14 congelato come robusto estrattore di funzionalità. La nostra principale intuizione è che in tali condizioni di spostamento del dominio, le rappresentazioni generalizzabili di un grande modello pre-addestrato superano significativamente una CNN tradizionale messa a punto sul set di dati non corrispondenti, dimostrando di essere una strategia più efficace e affidabile.

Tipo di pubblicazione:
Documento della conferenza

Editore:
MediaEval"25: Seminario di valutazione multimediale, 25-26 ottobre 2025, Dublino, Irlanda e online

Accesso su richiesta

Autori:
Qiushi Li, Roberto Caldelli e Stefano Berretti

Riassunto:

Il rapido progresso di modelli di generazione di immagini come Stable Diffusion solleva preoccupazioni sul potenziale uso improprio, rendendo le solide tecniche di watermarking essenziali per l'autenticazione e l'attribuzione di contenuti sintetici, in particolare nella lotta ai deepfake. Tuttavia, garantire simultaneamente la generazione di immagini di alta qualità e l'estrazione accurata della filigrana rimane difficile. Attraverso un'analisi dei metodi esistenti, identifichiamo una limitazione critica:
le loro funzioni di perdita spesso adottano un unico riferimento (l'immagine di input o l'immagine generata in modo pulito) per ottimizzare la fedeltà dell'immagine, portando a prestazioni non ottimali. In questo articolo, conduciamo uno studio approfondito del termine di perdita di qualità dell'immagine nel watermarking basato sulla diffusione. Analizzando gli impatti distinti dell'utilizzo dell'immagine di input rispetto all'immagine pulita generata come riferimento durante l'ottimizzazione, riveliamo che considerare congiuntamente entrambi i riferimenti migliora significativamente la robustezza e la qualità visiva. Esperimenti approfonditi dimostrano che il nostro approccio a doppio riferimento raggiunge prestazioni superiori sia nell'accuratezza dell'estrazione della filigrana che nella fedeltà della generazione rispetto alle linee di base a riferimento singolo. Sosteniamo questo paradigma per far avanzare la filigrana affidabile nei modelli generativi.

Tipo di pubblicazione:
Documento della conferenza

Editore:
DFF "25: Atti del primo seminario di Deepfake Forensics: Rilevamento, attribuzione, riconoscimento e sfide avversarie nell'era dei media generati dall'IA

Accesso qui

Autori:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte, Marc Serra-Vidal

Riassunto:

L'intelligenza artificiale (IA) ora permea le infrastrutture critiche e i sistemi decisionali in cui i fallimenti producono danni sociali, economici e democratici. Questo documento sfida la convinzione radicata che la regolamentazione e l'innovazione siano opposti. Come evidenziato dalle analogie dei sistemi aeronautici, farmaceutici e previdenziali e dai recenti casi di disinformazione sintetica, parzialità e processo decisionale inspiegabile, l'assenza di una regolamentazione ben progettata ha già creato danni incommensurabili. La regolamentazione, se ponderata e adattabile, non è un freno all'innovazione: ne è il fondamento. Il presente documento di sintesi esamina la legge dell'UE sull'IA come modello di regolamentazione basata sul rischio e sulla responsabilità che affronta il dilemma di Collingridge: agire con sufficiente tempestività per prevenire i danni, ma con sufficiente flessibilità per sostenere l'innovazione. I suoi meccanismi di adattamento – spazi di sperimentazione normativa, sostegno alle piccole e medie imprese (PMI), test reali, valutazione d'impatto sui diritti fondamentali (FRIA) – dimostrano come la regolamentazione possa accelerare in modo responsabile, anziché ritardare, il progresso tecnologico. Il documento di sintesi riassume il modo in cui gli strumenti di governance trasformano gli oneri percepiti in vantaggi tangibili: certezza giuridica, fiducia dei consumatori e competitività etica. In definitiva, il documento riformula i progressi: l'innovazione e la regolamentazione progrediscono insieme. Integrando la trasparenza, le valutazioni d'impatto, la responsabilità e l'alfabetizzazione in materia di IA nella progettazione e nella diffusione, il quadro dell'UE definisce cosa significhi realmente innovazione responsabile: ambizione tecnologica disciplinata da valori democratici e diritti fondamentali.

Tipo di pubblicazione:
Documento della conferenza

Editore:
La trentanovesima conferenza annuale sui sistemi di elaborazione delle informazioni neurali (NeurIPS 2025)

Accesso qui

Autore: Pascaline Gaborit

Riassunto:

In un'epoca di incertezza globale, la fiducia è diventata un fattore critico che modella le relazioni tra nazioni, istituzioni e individui. Questo libro, Trust, New Technologies and Geopolitics in an Uncertain World (Fiducia, nuove tecnologie e geopolitica in un mondo incerto), offre un'esplorazione tempestiva e approfondita di come la fiducia viene testata e trasformata di fronte a paesaggi geopolitici in rapida evoluzione. Dalla fragilità dei sistemi democratici alle sfide poste dalle nuove tecnologie, dall'intelligenza artificiale, dalla disinformazione e dai cambiamenti climatici, questo libro approfondisce le questioni più urgenti del nostro tempo. Esaminando le intersezioni della fiducia con settori chiave come le democrazie, le guerre commerciali e le nuove tecnologie, questo lavoro fornisce preziose informazioni ai responsabili politici, agli studiosi e a chiunque cerchi di comprendere le complessità del mondo di oggi. Che tu sia interessato alla sicurezza informatica, alla disinformazione, all'impatto delle minacce ibride o al ruolo della fiducia nella diplomazia internazionale, questo libro offre un quadro completo ma accessibile per affrontare queste sfide. Fa luce su come la comprensione della fiducia sia la chiave per affrontare le incertezze geopolitiche che definiscono la nostra epoca.

Tipo di pubblicazione:
Libro

Editore:
Peter Lang Editore

Accesso qui

Autore:

Eddie Conti, Álvaro Parafita, Axel Brando

Riassunto:

Valutare l'importanza delle singole caratteristiche nell'apprendimento automatico è fondamentale per comprendere il processo decisionale del modello. Sebbene esistano numerosi metodi, la mancanza di una verità di base definitiva per il confronto evidenzia la necessità di misure alternative e fondate. Questo documento introduce un nuovo metodo di importanza delle caratteristiche locali post-hoc chiamato Counterfactual Importance Distribution (CID). Genera due serie di controfattuali positivi e negativi, modella le loro distribuzioni utilizzando Kernel Density Estimation e classifica le caratteristiche in base a una misura di dissimilarità distributiva. Questa misura, fondata su un rigoroso quadro matematico, soddisfa le proprietà chiave necessarie per funzionare come una metrica valida. Mostriamo l'efficacia del nostro metodo confrontandolo con gli esperti di spiegazione dell'importanza delle caratteristiche locali. Il nostro metodo non solo offre prospettive complementari agli approcci esistenti, ma migliora anche le prestazioni sulle metriche di fedeltà (sia per completezza che per sufficienza), con conseguente spiegazione più fedele del sistema. Questi risultati evidenziano il suo potenziale come strumento prezioso per l'analisi dei modelli.

Tipo di pubblicazione:
Documento della conferenza

Editore:
Conferenza sull'apprendimento profondo dell'aurora boreale 2026

Accesso qui