Festival de conversation LAMPA

Les médias à l'ère de l'IA: principaux plats à emporter du LAMPA Conversation Festival

Le 6 juillet, la professeure Inna Šteinbuka de l'Université de Lettonie, notre coordinatrice du projet, a participé à une table ronde stimulante au festival de conversation LAMPA, intitulée «La menace que fait peser l’intelligence artificielle sur la sécurisation des informations ne sera pas stoppée, même par des médias fiables. Êtes-vous (dés) d’accord?».

LAMPA Conversation Festival se déroule à Cēsis et est réputé pour favoriser le dialogue ouvert et l'échange d'idées dans une atmosphère détendue, débattant de sujets urgents pour la Lettonie, l'Europe et le monde.

Organisée par LSM.lv, le portail d’information unifié de la télévision publique, de la radio et des services en ligne de la Lettonie, cette table ronde a porté sur les thèmes suivants: défis et opportunités posés par l’IA dans le contexte de la sécurité de l’information et de la fiabilité des médias.

La conversation a été animée par Edgars Zicāns, rédacteur en chef de LSM.lv, et a réuni d’éminents panélistes de divers domaines:

  • Inna Šteinbuka, responsable du projet AI4Debunk et professeur à l’université de Lettonie
  • Jānis Sārts, directeur du Centre d'excellence de la communication stratégique de l'OTAN
  • Andrejs Judins, membre de la Saeima et président de la commission juridique de la Saeima
  • Kārlis Miksons, éditeur de médias sociaux du service d’information de la télévision lettone et membre du groupe d’experts de l’Union européenne de radio-télévision sur les médias sociaux
  • Kristiāna Grāmatiņa, gestionnaire du podcast «Is it easy to be?» relatif aux technologies de l’information

Edgars Zicāns

Inna Šteinbuka

Jānis Sārts

Andrejs Judins

Kārlis Miksons

Kristiāna Grāmatiņa

Les panélistes se sont engagés dans une discussion très perspicace, abordant des sujets clés tels que:

 

1. RÔLE DE L’IA DANS LA DÉSINFORMATION

Les technologies de l’IA sont de plus en plus sophistiquées pour créer et diffuser de la désinformation, qu’il s’agisse d’imiter des personnalités influentes ou de générer de fausses vidéos réalistes. Cette capacité remet en question notre capacité à faire confiance à ce que nous voyons et entendons.

"Je voudrais vous rappeler un dicton que le célèbre écrivain Mark Twain a dit un jour - il a dit qu'il est plus facile de tromper une personne que de la convaincre qu'elle a été trompée. Il a vécu il y a longtemps, mais je pense que s'il vivait maintenant, sa citation serait encore plus pertinente, parce que maintenant nous ne savons pas nous-mêmes si nous pouvons croire nos yeux et nos oreilles ou non.

2. PENSÉE ET CONFIANCE CRITIQUES

Les intervenants ont souligné l'importance de la pensée critique. Les personnes qui pensent de manière critique et comprennent le contexte sont plus difficiles à induire en erreur. Cependant, même les individus instruits peuvent tomber dans les théories du complot, ce qui met en évidence le défi omniprésent de la désinformation et de la désinformation.

3. PERCEPTION HUMAINE ET AI

Jānis Sārts, du Centre d’excellence en communication stratégique de l’OTAN, a noté que les cerveaux humains, qui sont facilement trompés par des tours de magie, sont également sensibles aux contenus générés par l’IA. Il souligne la nécessité d’utiliser l’IA pour lutter contre la désinformation et la désinformation.

« J'aime cette citation qui dit que le problème de notre époque est que nous avons des cerveaux paléolithiques, des structures médiévales et une technologie divine, et cela ne va tout simplement pas bien ensemble. (...) La question est donc de savoir comment nous y prenons-nous? Je pense qu'il n'y a qu'une seule réponse. La même intelligence artificielle est ce que vous devez apporter dans votre équipement pour résoudre ce problème. Parce que, désolé, notre cerveau paléolithique ne convient pas à cela.»

4. MESURES JURIDIQUES ET RÉGLEMENTAIRES

Andrejs Judins, de la commission juridique de Saeima, a discuté de l’évolution des cadres juridiques pour lutter contre le rôle de l’IA dans la désinformation politique, y compris la responsabilité pénale potentielle pour les faux profonds pendant les élections.

5. IMPERATIVE ÉDUCATIONNELLE

Le panel a souligné la nécessité d'intégrer l'éducation à l'IA dans le programme scolaire afin de préparer les générations futures à naviguer et à utiliser efficacement ces technologies.

«(...) Comme pour toute autre technologie, ceux qui apprennent en premier gagneront beaucoup et il y en aura beaucoup qui seront laissés pour compte, sans travail, sans possibilités de carrière, etc. (...) Cela vaut également pour l'école - nous devons intégrer l'intelligence artificielle dans notre système éducatif. (...) Si nous voulons que nos jeunes puissent y faire face à l’avenir, nous devons les former à utiliser ces capacités presque automatiquement.»

6. RESPONSABILITÉ COLLECTIVE

Alors que les individus doivent apprendre à analyser de manière critique l'information, il y a aussi une responsabilité collective. Il s’agit notamment de réglementer les principales plateformes de médias sociaux afin de freiner la propagation de la désinformation et de la désinformation.

«Nous devons être en mesure de réguler ces géants parce qu’ils sont les principales plateformes où la désinformation se propage très rapidement et atteint les gens (...) Nous pouvons tous être responsables de nous-mêmes. Nous pouvons apprendre à analyser les informations de manière critique autant que nous le pouvons, mais c’est en quelque sorte une chose collective.»

7. MEDIA ET IA

Les implications de l'IA pour l'avenir des médias ont également été débattues. Les médias traditionnels devront peut-être s'adapter en intégrant des outils d'IA pour maintenir leur crédibilité et leur efficacité dans la fourniture d'informations précises.

8. ADOPTION PUBLIQUE DE L'IA

Une enquête menée par le centre de recherche Norstat et LSM.lv a révélé que 44% des résidents lettons ont utilisé des outils d’IA, les populations plus jeunes étant plus susceptibles de s’être engagées dans ces technologies. Cela révèle une familiarité et une dépendance croissantes à l'IA dans différentes catégories démographiques.

9. Projet AI4DEBUNK

Inna Šteinbuka, de l’université de Lettonie, informe le public des objectifs d’AI4Debunk. Le projet se concentre sur le développement d'outils humains pour démystifier la désinformation, en mettant l'accent sur la nécessité de créer des méthodes accessibles et efficaces pour que le public identifie et combatte les fausses informations.

Crédits photos: Karīna Egliena et Kristaps Briedis

En résumé, la discussion a mis en lumière la nature à double tranchant de l’IA dans la sécurité des médias et de l’information, plaidant en faveur d’une approche équilibrée tirant parti des avantages de l’IA tout en atténuant ses risques par l’éducation, la réglementation et la pensée critique.

Regardez la table ronde enregistrée (en letton) ici.

Un résumé écrit est disponible sous la vidéo. Pour le lire en anglais, activez la fonction de traduction automatique dans votre navigateur.

Autres oeuvres de AI4Debunk

Le 6 novembre 2025, la table ronde multipartite AI4DEBUNK s’est tenue au Club de la presse de Bruxelles, réunissant plus de 20 experts.
Sans attendre les normes mondiales, l'Ukraine a construit des défenses agiles alimentées par l'IA que l'Occident devrait étudier, reproduire et mettre à l'échelle.
Dans son discours sur l’état de l’Union 2025, la présidente von der Leyen a réaffirmé la lutte de l’UE contre la désinformation, une mission que nous soutenons chez AI4Debunk depuis plus de deux ans!