Le 5 septembre, Pilot4DEV a organisé une réunion multipartite au Press Club de Bruxelles, réunissant des experts, des chercheurs et des praticiens de premier plan pour échanger des connaissances, discuter de stratégies de lutte contre les fausses nouvelles et explorer comment les outils d'IA peuvent être conçus pour relever efficacement ces défis.
Lors de l'événement, le projet AI4Debunk ainsi que les premiers résultats de notre sondage en ligne en cours ( ⁇anglais, ⁇français, ⁇allemand, ⁇norvégien, ⁇grec, ⁇letton, ⁇Ukranien) ont été présentés. Cela a ouvert la voie à une table ronde animée, dont les principaux points saillants sont détaillés ci-dessous.
1. Conception d'outils de projets
La discussion a non seulement mis l’accent sur les aspects sociétaux de la désinformation, mais a également examiné les facteurs psychologiques individuels qui rendent une personne vulnérable à la manipulation d’informations en ligne. Il a été suggéré que ces éléments psychologiques soient pris en considération lors de la conception des outils d’IA du projet visant à lutter contre la désinformation.
Les participants ont exprimé leur intérêt pour la conception des outils, s’interrogeant sur la sélection des quatre interfaces spécifiques (plug-in web, Disinfopedia, App et AR/VR) et sur la manière dont elles s’alignent sur les objectifs du projet. Des préoccupations ont été soulevées quant à la nécessité de veiller à ce que les outils soient accessibles au grand public, en particulier à ceux qui pourraient en bénéficier le plus, tels que les personnes âgées ou les personnes moins férues de technologie. Bien qu'il y ait eu un certain scepticisme quant à savoir si ces groupes adopteraient facilement des applications ou des systèmes AR / VR, le consensus général était que les outils, en particulier l'application, doivent être conviviaux.
La discussion a principalement porté sur le renforcement de la confiance en tant que source crédible, ce que les participants ont jugé essentiel pour encourager une utilisation généralisée des outils. Plusieurs intervenants ont reconnu qu'il était difficile d'établir la confiance, même pour les vérificateurs de faits reconnus. Les personnes vulnérables, en particulier, ont été considérées comme moins susceptibles de faire confiance aux outils de vérification des faits fondés sur l’IA, tandis que des utilisateurs plus informés pourraient être disposés à les expérimenter.
2. Désinformation vs. désinformation
Les participants se sont également enquis de nos définitions de la «désinformation» et de la «désinformation». Cela a conduit à une discussion plus large sur le concept de fausses nouvelles et ses différentes nuances: les fausses informations existent sur un spectre allant de la désinformation involontaire à la désinformation délibérée.
La façon dont l'information est encadrée, en particulier par l'utilisation du langage émotionnel, a été considérée comme un facteur qui influence la façon dont les lecteurs interprètent le contenu. Certains ont noté qu'il existe déjà des systèmes d'IA capables d'évaluer le ton émotionnel des articles, mais la prudence a été exprimée quant au risque de généraliser à l'excès différents types de fausses informations.
Compte tenu de la complexité de la détermination de la vérité, les vérificateurs de faits continuent de s’appuyer sur l’analyse humaine, une approche également centrale dans notre Disinfopedia. Il y a eu un débat sur la question de savoir si les médias établis devraient être informés lorsqu'ils publient des informations incorrectes, certains plaidant pour une plus grande collaboration entre les journalistes et les vérificateurs de faits afin de garantir l'exactitude des informations. La transparence des journalistes lorsqu'ils commettent des erreurs a été considérée comme essentielle au maintien de la confiance du public.
3. Acteurs malveillants et ingérence étrangère
La discussion s’est ensuite déplacée vers le rôle des acteurs malveillants dans la diffusion de la désinformation. Il est souvent extrêmement difficile d'identifier ces acteurs et de retracer l'origine de ces menaces. L'équipe de DisinfoLab a partagé les points de vue de ses recherches approfondies sur ce sujet, en soulignant leurs résultats publiés disponibles dans ce rapport.
Les participants étaient curieux de connaître nos propres expériences dans le suivi des acteurs malveillants. À partir de notre étude de cas, nous avons mis en évidence comment les tactiques de désinformation russes se sont révélées particulièrement adaptatives. Par exemple, leur stratégie sur des plateformes comme TikTok se concentre sur l'attraction de publics plus jeunes et libéraux avec un contenu engageant, introduisant progressivement la propagande après avoir d'abord construit la confiance. Cette approche consistant à intégrer la désinformation dans des récits qui résonnent avec des données démographiques spécifiques constitue une menace croissante, en particulier sur les plateformes dont le contrôle de la désinformation est plus faible, comme TikTok, par rapport à d’autres plateformes, telles que Meta ou X (anciennement Twitter).
4. IA et pensée critique
Un autre point important soulevé était la nécessité d’éviter de s’appuyer aveuglément sur l’IA pour lutter contre les fausses informations et d’encourager plutôt la curiosité et la compréhension du fonctionnement des systèmes d’IA.
Certains participants ont appelé à des initiatives visant à «démystifier l’IA» et les grands modèles linguistiques, faisant valoir que les gens s’engagent souvent passivement dans l’IA sans comprendre ses processus sous-jacents. Ils ont suggéré qu'encourager la curiosité à propos de l'apprentissage automatique dès le plus jeune âge pourrait aider à rendre ces outils plus accessibles au grand public.
Cela fait en fait partie de la raison d’être de l’introduction d’une bande dessinée en tant qu’outil éducatif dans notre projet, ce qui a suscité une discussion sur la question de savoir si l’éducation des gens au rôle de l’IA dans la lutte contre la désinformation pourrait conduire à une adoption plus large de ces outils au-delà des seuls professionnels.
Les enseignements tirés de cette session nous aideront à définir nos prochaines étapes. Au fur et à mesure que le projet AI4Debunk progresse, nous sommes impatients de poursuivre ces efforts de collaboration avec les parties prenantes et d'affiner nos outils.
Nous restons déterminés à favoriser la poursuite du dialogue et de l’innovation dans la lutte contre la désinformation, en travaillant ensemble à l’édification d’une société plus informée et plus résiliente.




