Scientifique Publications

Retrouvez toutes les publications scientifiques produites par les partenaires d'AI4Debunk, présentant les dernières découvertes scientifiques du projet.

Auteurs :
Axel Brando, Lucas Berry et David Mege

Résumé :
Les modèles de diffusion générative, remarquables pour leur grand nombre de paramètres (supérieur à 100 millions) et leur fonctionnement dans des espaces d'image à haute dimension, posent des défis importants pour les méthodes traditionnelles d'estimation de l'incertitude en raison des exigences de calcul. Dans ce travail, nous introduisons un cadre innovant, Diffusion Ensembles for Capturing Uncertainty (DECU), conçu pour estimer l'incertitude épistémique pour les modèles de diffusion. Le cadre DECU introduit une nouvelle méthode qui entraîne efficacement des ensembles de modèles de diffusion conditionnelle en incorporant un ensemble statique de paramètres pré-entraînés, réduisant considérablement la charge de calcul et le nombre de paramètres nécessitant une formation. De plus, DECU utilise des estimateurs Pairwise-Distance (PaiDE) pour mesurer avec précision l'incertitude épistémique en évaluant l'information mutuelle entre les sorties du modèle et les poids dans les espaces à haute dimension. L'efficacité de ce cadre est démontrée par des expériences sur l'ensemble de données ImageNet, soulignant sa capacité à capturer l'incertitude épistémique, en particulier dans les classes d'images sous-échantillonnées.

Type de publication:
Document de conférence

Éditeur:
La 40e conférence sur l'incertitude dans l'intelligence artificielle

Accès ici

Auteurs :
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.

Résumé :
Ces derniers temps, la propagation croissante des médias synthétiques, connus sous le nom de deepfakes, a été rendue possible par les progrès rapides des technologies d'intelligence artificielle, en particulier des algorithmes d'apprentissage en profondeur. Les inquiétudes croissantes concernant la disponibilité et la crédibilité croissantes des deepfakes ont incité les chercheurs à se concentrer sur le développement de méthodes pour les détecter. Dans ce domaine, des chercheurs du laboratoire AIMH de l’ISTI CNR, en collaboration avec des chercheurs d’autres organisations, ont mené des recherches, des enquêtes et des projets pour contribuer à lutter contre cette tendance, en explorant de nouvelles solutions et menaces. Cet article résume les efforts les plus récents déployés dans ce domaine par nos chercheurs et en collaboration avec d'autres institutions et experts.

Type de publication:
Document de conférence

Éditeur:
Actes de l'atelier CEUR

Accès ici

Auteurs :
Stanciu, Cristian et Ionescu, Bogdan et Cuccovillo, Luca et Papadopoulos, Symeon et Kordopatis-Zilos, Giorgos et Popescu, Adrian et Caldelli, Roberto

Résumé :
La génération et la manipulation de médias synthétiques ont connu des progrès rapides ces dernières années, ce qui rend de plus en plus facile la création de contenu multimédia indiscernable pour l'observateur humain. En outre, le contenu généré peut être utilisé de manière malveillante par des individus et des organisations afin de diffuser de la désinformation, ce qui constitue une menace importante pour la société et la démocratie. Par conséquent, il est urgent de disposer d’outils d’IA visant à faciliter un processus de vérification des médias en temps utile et efficace. L’atelier MAD’24 vise à rassembler des personnes d’horizons divers qui se consacrent à la lutte contre la désinformation dans le multimédia au moyen de l’IA, en favorisant un environnement propice à l’exploration d’idées innovantes et au partage d’expériences. Les domaines de recherche d’intérêt comprennent l’identification des contenus manipulés ou générés, ainsi que l’étude de la diffusion de la désinformation et de ses répercussions sociétales. Reconnaissant l'importance du multimédia, l'atelier met l'accent sur l'analyse conjointe de diverses modalités au sein du contenu, car la vérification peut être améliorée en agrégeant plusieurs formes de contenu.

Type de publication:
Document de conférence

Éditeur:
Actes du 3e atelier international de l’ACM sur l’IA multimédia contre la désinformation

Accès ici

Auteurs :
Andrea Ciamarra, Roberto Caldelli et Alberto Del Bimbo

Résumé :
Regarder une séquence vidéo où une personne de premier plan est représentée n'est plus comme il y a longtemps. Les Deepfakes ont révolutionné notre façon de regarder de tels contenus et de nos jours, nous sommes plus souvent habitués à nous demander si ce que nous voyons est réel ou n'est qu'une mystification. Dans ce contexte de désinformation généralisée, la nécessité de solutions fiables pour aider les utilisateurs communs, et pas seulement, à faire une évaluation de ce type de séquences vidéo est fortement à venir. Dans cet article, une nouvelle approche qui s'appuie sur les anomalies temporelles du cadre de surface afin de révéler des vidéos deepfake est introduite. La méthode recherche d'éventuelles divergences, induites par une manipulation deepfake, dans les surfaces appartenant à la scène capturée et dans leur évolution le long de l'axe temporel. Ces fonctionnalités sont utilisées comme entrée d'un pipeline basé sur des réseaux de neurones profonds pour effectuer une évaluation binaire sur la vidéo elle-même. Les résultats expérimentaux montrent qu'une telle méthodologie peut atteindre des performances significatives en termes de précision de détection.

Type de publication:
Document de conférence

Éditeur:
2024 Conférence IEEE/CVF sur la vision par ordinateur et les ateliers de reconnaissance de motifs (CVPRW)

Accès ici

Auteurs :
Pascaline Gaborit

Résumé :
Les organisations internationales classent la désinformation comme l'une des principales menaces pour la démocratie et les institutions depuis plus d'une décennie. Les technologies numériques réinventent et transforment en profondeur les modes de vie modernes, l’environnement des citoyens et celui des entreprises. L'IA apporte une nouvelle perturbation dans la façon dont nous accédons aux connaissances et créons, diffusons et comprenons l'information. Elle peut également brouiller les frontières entre l’information réelle et l’information manipulée avec l’émergence des «fausses nouvelles», du référencement croisé des réseaux automatiques et des «fausses informations profondes». Les systèmes d’IA renforcent le potentiel de création de faux contenus réalistes et de campagnes de désinformation ciblées. La désinformation va au-delà de simples rumeurs pour tromper et déformer délibérément des informations fondées sur des preuves grâce à des données fabriquées de toutes pièces. Les institutions européennes se sont également récemment concentrées sur l’identification de la désinformation liée à FIMI: Manipulation et interférence de l'information étrangère. L’article recense les tendances et les préoccupations liées à la désinformation et à l’IA. Il explore la perception de la désinformation, ses effets et ses réponses, y compris la législation de l’UE sur l’IA et les politiques des plateformes en ligne. Il fournit une première approche analytique du sujet basée sur les débats actuels des chercheurs, les premières conclusions de nos enquêtes de 2024, des entretiens et l'analyse de centaines de fausses informations en ligne. Il tente de comprendre comment les citoyens et les parties prenantes perçoivent la désinformation et identifie les incidences possibles. Il analyse également les défis et les contraintes actuels, les opportunités et les limites pour lutter contre la manipulation et l'ingérence. L’article examine les processus actuels et les incidences de la désinformation (2), la présentation des principales conclusions de notre enquête en ligne sur la perception de la désinformation (3), les réponses réglementaires actuelles de l’UE (4) et les points de discussion (5). Nous soutenons dans cet article qu'il y a un changement gigantesque dans la façon dont nous accédons à l'information, mais que les réponses à la désinformation sont encore à un stade précoce. L’article démontre également que les pays européens sont de plus en plus sensibilisés aux effets de la désinformation, mais aussi qu’il existe un fossé entre la capacité à identifier les «fausses informations» et la désinformation et une compréhension limitée des processus, des menaces et des acteurs impliqués dans la propagation de la désinformation.

Type de publication:
Document de journal

Éditeur:
Journal of Political Science and International Relations

Accès ici

Auteurs :
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra, Axel Brando

Résumé :

Dans cet article, nous présentons une nouvelle application des modèles causals structurels (MCS) et de la procédure d'abduction-action-prédiction à une série temporelle dans le contexte d'un problème réel dans l'industrie pharmaceutique. Nous visons à estimer les contrefactuels pour le volume des ventes d'un médicament qui a été touché par l'entrée sur le marché d'un médicament générique concurrent. Nous utilisons des architectures basées sur un encodeur-décodeur, appliquant un autoencodeur variationnel conditionnel et introduisant également l'utilisation d'autoencodeurs clairsemés conditionnels, qui n'avaient jamais été utilisés dans la littérature contrefactuelle. La méthodologie proposée exige la disponibilité de séries chronologiques d’événements historiques et d’événements sans événement et présente l’avantage de ne pas s’appuyer sur des covariables de contrôle qui peuvent ne pas être disponibles, tout en surpassant clairement l’estimation contrefactuelle de base d’une prévision. Nous évaluons notre approche en utilisant l’ensemble de données sur les ventes réelles de notre entreprise, ainsi que des ensembles de données synthétiques et semi-synthétiques qui imitent le contexte du problème, démontrant ainsi son efficacité. Nous avons appliqué ce modèle avec succès dans notre entreprise, en fournissant des informations utiles pour la planification des activités, l'allocation des investissements et l'établissement des objectifs.

Type de publication:
Article de l'atelier

Éditeur:
Atelier NeurIPS 24 sur l’apprentissage de la représentation causale

Accès ici

Auteurs :
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis et Arianna D’Ulizia

Résumé :
L’essor des plateformes numériques a facilité la propagation rapide de la désinformation, qui pose d’importants défis sociaux, politiques et économiques. Les graphiques de connaissances (KG) apparaissent comme des outils efficaces pour améliorer la précision, l'interprétabilité et l'évolutivité des systèmes de détection des fausses nouvelles, en s'attaquant aux limites des approches traditionnelles basées sur l'apprentissage automatique qui reposent principalement sur l'analyse linguistique. Ce travail contient une revue de la littérature qui synthétise les résultats d'études récentes sur l'application des GC dans la détection de la désinformation. Nous identifions comment les KG améliorent la détection en codant des relations réelles, en analysant le contexte et en améliorant l'interprétabilité du modèle, tout en discutant des limites actuelles en matière d'évolutivité, d'exhaustivité des données et d'adaptabilité contextuelle. Les études examinées soulignent la nécessité de futures recherches axées sur des modèles de GC évolutifs, en temps réel et translinguistiques pour renforcer les capacités de détection de la désinformation à l'échelle mondiale. En outre, nous présentons les résultats préliminaires de deux cas d’utilisation, présentant une méthodologie pour la construction de GC pouvant servir d’outils utiles pour lutter contre la propagation de la désinformation.

Type de publication:
Document de conférence

Éditeur:
Conférence internationale 2024 sur l’ingénierie et les technologies émergentes (ICEET)

Accès ici

Auteurs :
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia

Résumé :
Le présent document explore la réponse multiforme de l’Union européenne à la question omniprésente de la désinformation, un défi qui s’est intensifié depuis l’annexion de la Crimée en 2014. La désinformation constitue une menace importante pour les processus démocratiques et le bien-être public. L’approche de l’Union européenne combine des mesures réglementaires, des partenariats stratégiques et des initiatives d’éducation aux médias pour lutter contre ce phénomène tout en préservant les principes démocratiques fondamentaux, tels que la liberté d’expression. Parmi les mesures clés figurent le code de bonnes pratiques contre la désinformation et la législation sur les services numériques, qui visent à responsabiliser les plateformes numériques et à garantir la transparence. En outre, des initiatives telles que la task force East StratCom et le système d’alerte rapide soulignent les efforts déployés par l’Union européenne pour lutter contre la désinformation en tant qu’outil de guerre hybride. Cet article met également l'accent sur le rôle essentiel des citoyens, que l'Union européenne cherche à responsabiliser par le biais de programmes d'éducation aux médias, leur permettant de reconnaître et de résister aux contenus manipulateurs. En examinant les interactions entre les actions gouvernementales, la participation du secteur privé et l’engagement des citoyens, cette étude fournit une analyse complète de la stratégie de l’Union européenne contre la désinformation et évalue les défis et les orientations futures nécessaires pour maintenir la résilience démocratique dans un paysage numérique en évolution.

Type de publication:
Article scientifique

Éditeur:
Polité de l'information

Accès ici

Auteurs :
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia

Résumé :

Objet
En utilisant une approche multidisciplinaire, cette étude vise à tracer le cheminement des campagnes de désinformation depuis leur détection par des indices linguistiques de crédibilité jusqu'à leur avancement à travers les mécanismes de diffusion, et enfin, à évaluer leur impact sur le contexte sociopolitique.

Conception/méthodologie/approche
Cette étude fournit une vue d’ensemble approfondie de quatre aspects fondamentaux de la désinformation: les caractéristiques linguistiques qui distinguent les contenus conçus pour tromper et manipuler l’opinion publique, les mécanismes médiatiques qui facilitent leur diffusion en exploitant les processus cognitifs de son public, les menaces posées par l’utilisation croissante de l’intelligence artificielle générative pour diffuser la désinformation et les conséquences plus larges de ces dynamiques de désinformation sur l’opinion publique et, par conséquent, sur les processus décisionnels politiques.

Constatations
En conséquence, le document fournit un examen interdisciplinaire et holistique du phénomène, se référant à ses éléments pluralisés pour souligner l'importance de la responsabilité des plateformes, des campagnes d'éducation aux médias parmi les citoyens et de la coopération interactive entre les secteurs privé et public en tant que mesures visant à renforcer la résilience face à la menace de la désinformation.

Originalité/valeur
L'étude souligne la nécessité d'accroître la responsabilité des plateformes, de promouvoir l'éducation aux médias parmi les individus et de développer la coopération entre les secteurs public et privé. Le renforcement de la résilience face à la désinformation et la garantie de l’adaptabilité de l’UE face à l’évolution des menaces numériques sont les objectifs de cette stratégie intégrée. En fin de compte, le document préconise une stratégie juste et ouverte qui protège la liberté d'expression et renforce les institutions démocratiques à un moment où la désinformation numérique est en hausse.

Type de publication:
Article scientifique

Éditeur:
Journal de l'information, de la communication et de l'éthique dans la société (2025)

Accès ici

Auteurs :
Eddie Conti, Alejandro Astruc, Álvaro Parafita et Axel Brando

Résumé :

Comprendre comment l'information se propage à travers les modèles Transformer est un défi clé pour l'interprétabilité. Dans ce travail, nous étudions les effets de perturbations symboliques minimales sur l'espace d'intégration. Dans nos expériences, nous analysons la fréquence à laquelle les jetons produisent des décalages minimaux, en soulignant que les jetons rares conduisent généralement à des décalages plus importants. De plus, nous étudions comment les perturbations se propagent à travers les couches, démontrant que les informations d'entrée sont de plus en plus mélangées dans des couches plus profondes. Nos résultats valident l'hypothèse commune selon laquelle les premières couches d'un modèle peuvent être utilisées comme approximations pour les explications du modèle. Dans l'ensemble, ce travail introduit la combinaison de perturbations symboliques et de décalages sur l'espace d'intégration en tant qu'outil puissant pour l'interprétabilité du modèle.

Type de publication:
Article de l'atelier

Éditeur:
Atelier IJCAI 2025 sur l'intelligence artificielle explicable

Accès ici

Auteurs :
Andrea Ciamarra, Roberto Caldelli et Alberto Del Bimbo

Résumé :

La désinformation est toujours plus induite par le recours à des contenus réalistes modifiés ou entièrement générés synthétiquement, généralement connus sous le nom de deepfakes. Il est donc nécessaire de disposer d’instruments fiables capables de révéler de tels contenus factices afin d’éviter la polarisation de la pensée des personnes. Diverses techniques ont été présentées, dont le dénominateur commun est de rechercher certaines incohérences induites par le processus de génération de faux et mises en évidence par l'examen de caractéristiques spécifiques. Il semble que la combinaison éventuelle de diverses caractéristiques distinctives pourrait permettre d'obtenir des résultats plus efficaces. Dans cette perspective et à la suite de notre étude précédente sur ce sujet, nous proposons d'étudier une nouvelle fonctionnalité qui prend essentiellement en compte les relations intégrées existant dans l'ensemble de la scène d'acquisition au moment de la capture d'image (vidéo) puis représentée par les valeurs de pixels de l'image. L'idée derrière est que le processus de génération de deepfake peut briser ces dépendances intrinsèques entre l'illumination (intensité et direction), les surfaces d'objets (position et réflectance) et le bruit d'acquisition, prouvant ainsi une manipulation possible. Selon cela, un descripteur de caractéristiques, nommé Local Surface Descriptor, a été construit et utilisé pour former des modèles basés sur CNN pour la détection de deepfake. Les résultats expérimentaux réalisés sur différents contextes opératoires démontrent une précision de détection significative jusqu'à 90%.

Type de publication:
Document de conférence

Éditeur:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Émirats arabes unis, 2024

Accès ici

Auteurs :
Andrea Ciamarra, Roberto Caldelli et Alberto Del Bimbo

Résumé :

La capacité réelle à générer des images réalistes entièrement synthétiques s'améliore au jour le jour et cela est particulièrement vrai pour les images représentant des visages humains qui semblent impossibles à distinguer des personnes réelles. Cela pose le besoin crucial de développer des instruments capables de discerner entre les personnes vraies et celles qui n'existent pas en détectant d'éventuelles incohérences intégrées dans les images au cours du processus de génération. La principale différence entre une image vierge et une image générée par deepfake est que, dans le second cas, il n'y a pas eu d'acquisition de caméra efficace; Ainsi, toutes les différentes interrelations entre les éléments appartenant à la scène (lumières, réflectance, positions respectives des objets dans l'espace 3D) ne sont pas prises par le monde réel dans cet instant précis, mais simplement reproduites artificiellement. Selon cette considération, dans ce travail, nous introduisons des cadres de surface de caméra locale comme moyen possible de représenter ces caractéristiques environnementales spécifiques afin de mettre en évidence les différences. L'analyse expérimentale effectuée a montré que cette caractéristique peut accorder un très haut niveau de précision et un degré significatif de généralisation.

Type de publication:
Document de conférence

Éditeur:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Émirats arabes unis, 2024

Accès ici

Auteurs :
Andrea Ciamarra, Roberto Caldelli et Alberto Del Bimbo

Résumé :

Des images irréelles extraordinaires peuvent être réalisées avec des techniques d'IA puissantes. Différents outils à la disposition de tous sont en mesure de recréer des contenus de haute qualité, en particulier en générant des images entièrement synthétiques. Parmi les architectures existantes, les modèles basés sur la diffusion peuvent facilement produire n'importe quel type d'images, y compris des images faciales humaines, en donnant une invite comme un texte. Ces faux contenus sont souvent utilisés pour diffuser de la désinformation, ce qui suscite des inquiétudes quant à la sécurité des personnes. À l'heure actuelle, il devient difficile de développer des instruments fiables pour faire la distinction entre les personnes réelles et générées (même inexistantes). En outre, la grande quantité d'implémentations basées sur la diffusion pose le problème pour de tels détecteurs de généraliser sur de nouvelles techniques génératives. Pour résoudre ces problèmes, nous proposons d'étudier la capacité d'une caractéristique distinctive, basée sur l'environnement d'acquisition d'images, à individualiser les images faciales basées sur la diffusion à partir des images vierges. En fait, les images générées ne doivent pas contenir les caractéristiques propres à la phase d'acquisition effectuée à travers une caméra réelle. Ces incohérences peuvent être mises en évidence au moyen de cadres de surface locaux récemment introduits. Cette fonctionnalité prend en compte les objets et les surfaces impliqués dans la scène, qui ont tous un impact sur le processus d'acquisition de la caméra, ainsi que d'autres informations intrinsèques liées à l'appareil, ainsi que l'éclairage et les réflexions affectant l'ensemble du scénario. L'article explore la capacité de cette fonctionnalité à se généraliser vers différents ensembles de données et de nouvelles méthodes génératives inconnues pendant l'entraînement. Les résultats expérimentaux soulignent qu'une telle fonctionnalité offre encore des niveaux significatifs de précision de détection également dans ces cas.

Type de publication:
Document de conférence

Éditeur:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Émirats arabes unis, 2024

Accès ici

Auteurs :
Álvaro Parafita, Tomas Garriga, Axel Brando, Francisco J. Cazorla

Résumé :

Parmi les techniques d'explicabilité, SHAP se distingue comme l'une des plus populaires, mais néglige souvent la structure causale du problème. En réponse, do-SHAP utilise des requêtes interventionnelles, mais sa dépendance aux estimandes entrave son application pratique. Pour résoudre ce problème, nous proposons l'utilisation d'approches d'estimation et d'agnostic, qui permettent d'estimer toute requête identifiable à partir d'un seul modèle, rendant le do-SHAP réalisable sur des graphiques complexes. Nous développons également un nouvel algorithme pour accélérer considérablement son calcul à un coût négligeable, ainsi qu'une méthode pour expliquer les processus de génération de données inaccessibles. Nous démontrons la performance d'estimation et de calcul de notre approche, et la validons sur deux ensembles de données du monde réel, en soulignant son potentiel pour obtenir des explications fiables.

Type de publication:
Document de conférence

Éditeur:
La trente-neuvième conférence annuelle sur les systèmes de traitement de l'information neuronale (NeurIPS 2025)

Accès ici

Auteurs :
Alamgir Munir Qazi, John Philip McCrae et Jamal Nasir

Résumé :

La prolifération de la désinformation nécessite des systèmes de vérification des faits robustes mais efficaces sur le plan informatique. Alors que les approches actuelles de pointe s'appuient sur les modèles grand langage (LLM) pour générer des justifications explicatives, ces méthodes sont confrontées à d'importants obstacles informatiques et à des risques d'hallucination dans les déploiements réels. Nous présentons DeReC (Dense Retrieval Classification), un cadre léger qui démontre comment les insertions de texte à usage général peuvent remplacer efficacement les approches autorégressives basées sur la LLM dans les tâches de vérification des faits. En combinant une récupération dense avec une classification spécialisée, notre système atteint une meilleure précision tout en étant beaucoup plus efficace. DeReC surpasse les LLM générant des explications en termes d'efficacité, réduisant le temps d'exécution de 95% sur RAWFC (23 minutes 36 secondes contre 454 minutes 12 secondes) et par 92% sur LIAR-RAW (134 minutes 14 secondes contre 1692 minutes 23 secondes), montrant son efficacité dans différentes tailles de jeux de données. Sur le jeu de données RAWFC, DeReC obtient un score F1 de 65,58%, dépassant la méthode de pointe L-Defense (61.20%). Nos résultats démontrent que des systèmes de récupération soigneusement conçus peuvent égaler ou dépasser les performances LLM dans des tâches spécialisées tout en étant beaucoup plus pratiques pour un déploiement dans le monde réel.

Type de publication:
Document de conférence

Éditeur:
5ème Conférence sur le Langage, les Données et les Connaissances

Accès ici

Auteurs :
Qiushi Li, Andrea Ciamarra, Roberto Caldelli et Stefano Berretti

Résumé :

Pour la tâche A (détection d'images synthétiques) du Défi SynthIm MediaEval 2025, nous avons identifié un changement de distribution critique entre les données de formation et de test fournies, ce qui fait du premier un faible représentant pour le domaine cible. Notre approche répond directement à ce défi en intégrant l'ensemble de validation plus cohérent sur le plan stylistique dans nos données d'entraînement et en tirant parti d'un CLIP ViT-L/14 gelé en tant qu'extracteur de fonctionnalités robuste. Notre principale idée est que, dans de telles conditions de changement de domaine, les représentations généralisables d'un grand modèle pré-entraîné surpassent considérablement un CNN traditionnel affiné sur l'ensemble de données non appariées, s'avérant être une stratégie plus efficace et plus fiable.

Type de publication:
Document de conférence

Éditeur:
MediaEval’25: Atelier d’évaluation multimédia, 25-26 octobre 2025, Dublin, Irlande et en ligne

Accès sur demande

Auteurs :
Qiushi Li, Roberto Caldelli et Stefano Berretti

Résumé :

L'avancement rapide des modèles de génération d'images tels que Stable Diffusion soulève des inquiétudes quant à une utilisation abusive potentielle, rendant des techniques de filigrane robustes essentielles pour l'authentification et l'attribution de contenu synthétique, en particulier dans la lutte contre les deepfakes. Cependant, il reste difficile d'assurer simultanément une génération d'images de haute qualité et une extraction précise des filigranes. Grâce à une analyse des méthodes existantes, nous identifions une limitation critique:
leurs fonctions de perte adoptent souvent une seule référence (soit l'image d'entrée, soit l'image générée proprement) pour optimiser la fidélité de l'image, ce qui conduit à des performances sous-optimales. Dans cet article, nous menons une étude approfondie du terme de perte de qualité d'image dans le filigrane basé sur la diffusion. En analysant les impacts distincts de l'utilisation de l'image d'entrée par rapport à l'image générée proprement en tant que références lors de l'optimisation, nous révélons que la prise en compte conjointe des deux références améliore considérablement la robustesse et la qualité visuelle. Des expériences approfondies démontrent que notre approche à double référence permet d'obtenir des performances supérieures en termes de précision d'extraction des filigranes et de fidélité de génération par rapport aux lignes de base à référence unique. Nous préconisons ce paradigme pour faire progresser le filigrane fiable dans les modèles génératifs.

Type de publication:
Document de conférence

Éditeur:
DFF ’25 : Actes du 1er atelier sur la criminalistique Deepfake: Détection, attribution, reconnaissance et défis contradictoires à l'ère des médias générés par l'IA

Accès ici

Auteurs :
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte, Marc Serra-Vidal

Résumé :

L'intelligence artificielle (IA) imprègne désormais les infrastructures critiques et les systèmes de prise de décision où les défaillances causent des dommages sociaux, économiques et démocratiques. Ce document de prise de position remet en question la conviction bien ancrée selon laquelle la réglementation et l'innovation sont opposées. Comme en témoignent les analogies de l'aviation, des produits pharmaceutiques et des systèmes de protection sociale et les cas récents de désinformation synthétique, de partialité et de prise de décision irresponsable, l'absence de réglementation bien conçue a déjà causé des dommages incommensurables. Lorsqu’elle est réfléchie et adaptative, la réglementation n’est pas un frein à l’innovation, elle en est le fondement. Le présent document de synthèse examine la législation de l’UE sur l’IA en tant que modèle de réglementation fondée sur les risques et axée sur la responsabilité qui aborde le dilemme de Collingridge: agir suffisamment tôt pour prévenir les dommages, mais avec suffisamment de souplesse pour soutenir l'innovation. Ses mécanismes d’adaptation — bacs à sable réglementaires, soutien aux petites et moyennes entreprises (PME), essais en conditions réelles, analyse d’impact sur les droits fondamentaux (FRIA) — montrent comment la réglementation peut accélérer de manière responsable, plutôt que de retarder, le progrès technologique. Le document de synthèse résume la manière dont les outils de gouvernance transforment les charges perçues en avantages tangibles: la sécurité juridique, la confiance des consommateurs et la compétitivité éthique. En fin de compte, le document recadre les progrès: l'innovation et la réglementation progressent ensemble. En intégrant la transparence, les analyses d’impact, la responsabilité et l’éducation à l’IA dans la conception et le déploiement, le cadre de l’UE définit ce que signifie réellement l’innovation responsable — une ambition technologique disciplinée par les valeurs démocratiques et les droits fondamentaux.

Type de publication:
Document de conférence

Éditeur:
La trente-neuvième conférence annuelle sur les systèmes de traitement de l'information neuronale (NeurIPS 2025)

Accès ici

Auteur : Pascaline Gaborit

Résumé :

À l'ère de l'incertitude mondiale, la confiance est devenue un facteur critique qui façonne les relations entre les nations, les institutions et les individus. Ce livre, Confiance, nouvelles technologies et géopolitique dans un monde incertain, offre une exploration opportune et approfondie de la façon dont la confiance est testée et transformée face à l'évolution rapide des paysages géopolitiques. De la fragilité des systèmes démocratiques aux défis posés par les nouvelles technologies, l'IA, la désinformation et le changement climatique, ce livre se penche sur les questions les plus urgentes de notre époque. En examinant les intersections de la confiance avec des domaines clés tels que les démocraties, les guerres commerciales et les nouvelles technologies, ce travail fournit des informations précieuses aux décideurs politiques, aux universitaires et à toute personne cherchant à comprendre les complexités du monde d’aujourd’hui. Que vous soyez préoccupé par la cybersécurité, la désinformation, l'impact des menaces hybrides ou le rôle de la confiance dans la diplomatie internationale, ce livre offre un cadre complet mais accessible pour relever ces défis. Il met en lumière la façon dont la compréhension de la confiance est essentielle pour répondre aux incertitudes géopolitiques qui définissent notre époque.

Type de publication:
Livre

Éditeur:
Peter Lang éditeur

Accès ici

Auteur :

Eddie Conti, Álvaro Parafita et Axel Brando

Résumé :

Il est essentiel d’évaluer l’importance des fonctionnalités individuelles dans l’apprentissage automatique pour comprendre le processus décisionnel du modèle. Bien qu'il existe de nombreuses méthodes, l'absence d'une vérité de base définitive pour la comparaison met en évidence la nécessité de mesures alternatives et bien fondées. Cet article présente une nouvelle méthode d'importance des caractéristiques locales post-hoc appelée distribution d'importance contrefactuelle (CID). Nous générons deux ensembles de contrefactuels positifs et négatifs, modélisons leurs distributions à l'aide de l'estimation de la densité du noyau et classons les caractéristiques en fonction d'une mesure de dissemblance distributionnelle. Cette mesure, fondée sur un cadre mathématique rigoureux, satisfait aux propriétés clés requises pour fonctionner comme une métrique valide. Nous montrons l'efficacité de notre méthode en comparant avec des explications bien établies sur l'importance des caractéristiques locales. Notre méthode offre non seulement des perspectives complémentaires aux approches existantes, mais améliore également les performances sur les métriques de fidélité (à la fois pour l'exhaustivité et la suffisance), résultant en des explications plus fidèles du système. Ces résultats mettent en évidence son potentiel en tant qu'outil précieux pour l'analyse de modèles.

Type de publication:
Document de conférence

Éditeur:
Conférence sur l'apprentissage profond des aurores boréales 2026

Accès ici