LAMPA conversatiefestival

Media in het tijdperk van AI: Wat te doen in de buurt van LAMPA Conversation Festival

Op 6 juli nam Prof. Inna Šteinbuka van de Universiteit van Letland, onze projectcoördinator, deel aan een tot nadenken stemmende paneldiscussie op het LAMPA Conversation Festival, getiteld “De dreiging van artificiële intelligentie om informatie te beveiligen zal niet worden gestopt, zelfs niet door betrouwbare media. Bent u het (niet) eens?”.

LAMPA Conversation Festival vindt plaats in Cēsis en staat bekend om het bevorderen van open dialoog en uitwisseling van ideeën in een ontspannen sfeer, waarbij dringende onderwerpen voor Letland, Europa en de wereld worden besproken.

Deze paneldiscussie, georganiseerd door LSM.lv, het uniforme nieuwsportaal van de openbare televisie-, radio- en onlinediensten van Letland, was gericht op de uitdagingen en kansen die AI biedt in de context van informatiebeveiliging en betrouwbaarheid van de media.

Het gesprek werd gemodereerd door Edgars Zicāns, nieuwsredacteur van LSM.lv, en bestond uit vooraanstaande panelleden uit verschillende vakgebieden:

  • Inna Šteinbuka, hoofd van het AI4Debunk-project en hoogleraar aan de Universiteit van Letland
  • Jānis Sārts, directeur van het Strategic Communication Centre of Excellence van de NAVO
  • Andrejs Judins, lid van de Saeima en voorzitter van de juridische commissie van Saeima
  • Kārlis Miksons, redacteur sociale media van de Letse nieuwsdienst Televisie en lid van de deskundigengroep sociale media van de Europese Omroepunie
  • Kristiāna Grāmatiņa, manager van de podcast “Is it easy to be?” met betrekking tot informatietechnologie

Edgars Zicāns

Inna Šteinbuka

Jānis Sārts

Andrejs Judins

Kārlis Miksons

Kristiāna Grāmatiņa

De panelleden voerden een zeer inzichtelijke discussie over belangrijke onderwerpen zoals:

 

1. De rol van AI bij de verspreiding van informatie

AI-technologieën worden steeds geavanceerder in het creëren en verspreiden van desinformatie, van het imiteren van invloedrijke figuren tot het genereren van realistische nepvideo's. Dit vermogen daagt ons vermogen uit om te vertrouwen op wat we zien en horen.

Ik zou u willen herinneren aan een gezegde dat de bekende schrijver Mark Twain ooit zei - hij zei dat het gemakkelijker is om een persoon te misleiden dan om hem ervan te overtuigen dat hij is misleid. Hij leefde lang geleden, maar ik denk dat als hij nu leefde, zijn citaat nog relevanter zou zijn, omdat we nu zelf niet weten of we onze ogen en oren kunnen geloven of niet.

2. Kritisch denken en vertrouwen

De sprekers benadrukten het belang van kritisch denken. Mensen die kritisch denken en de context begrijpen, zijn moeilijker te misleiden. Zelfs goed opgeleide personen kunnen echter vallen voor samenzweringstheorieën, die de alomtegenwoordige uitdaging van desinformatie en desinformatie benadrukken.

3. Menselijke perceptie en AI

Jānis Sārts van het Strategic Communication Centre of Excellence van de NAVO merkte op dat menselijke hersenen, die gemakkelijk kunnen worden misleid door goocheltrucs, even gevoelig zijn voor door AI gegenereerde inhoud. Hij benadrukte dat AI moet worden gebruikt om onjuiste informatie en desinformatie tegen te gaan.

Ik hou van dat citaat dat zegt dat het probleem met onze tijd is dat we paleolithische hersenen, middeleeuwse structuren en goddelijke technologie hebben, en het gaat gewoon niet goed samen. (...) Dan is de vraag: hoe gaan we daarmee om? Ik denk dat er maar één antwoord is. Dezelfde kunstmatige intelligentie is wat je nodig hebt om dit probleem aan te pakken. Omdat ons paleolithische brein daar helaas niet geschikt voor is.”

4. Wettelijke en reglementaire maatregelen

Andrejs Judins van de Juridische Commissie van Saeima besprak veranderende rechtskaders om de rol van AI bij politieke desinformatie aan te pakken, met inbegrip van mogelijke strafrechtelijke aansprakelijkheid voor deepfakes tijdens verkiezingen.

5. ONDERWIJS IMPERATIEF

Het panel benadrukte de noodzaak om AI-onderwijs te integreren in het schoolcurriculum om toekomstige generaties voor te bereiden op het navigeren en effectief gebruiken van deze technologieën.

“(...) Zoals met al het andere op technologisch gebied, zullen degenen die het eerst leren veel winnen en zullen velen achterblijven, zonder werk, carrièremogelijkheden enzovoort. (...) Dit geldt ook voor de school - we moeten kunstmatige intelligentie integreren in ons onderwijssysteem. (...) Als we willen dat onze jongeren hier in de toekomst mee om kunnen gaan, moeten we hen opleiden om deze vaardigheden bijna automatisch te gebruiken.”

6. COLLECTIEVE VERANTWOORDELIJKHEID

Hoewel individuen moeten leren om informatie kritisch te analyseren, is er ook een collectieve verantwoordelijkheid. Dit omvat de regulering van grote socialemediaplatforms om de verspreiding van desinformatie en desinformatie tegen te gaan.

"We moeten deze reuzen kunnen reguleren, omdat zij de belangrijkste platforms zijn waar desinformatie zich zeer snel verspreidt en mensen bereikt (...) We kunnen allemaal verantwoordelijk zijn voor onszelf. We kunnen leren om informatie zo veel mogelijk kritisch te analyseren, maar het is een soort collectief iets.”

7. Media en AI

De gevolgen van AI voor de toekomst van de media werden ook besproken. Traditionele media moeten zich mogelijk aanpassen door AI-instrumenten te integreren om geloofwaardigheid en doeltreffendheid te behouden bij het leveren van nauwkeurige informatie.

8. Publieke goedkeuring van AI

Uit een onderzoek van onderzoekscentrum Norstat en LSM.lv bleek dat 44% van de Letse inwoners heeft AI-instrumenten gebruikt, waarbij jongere bevolkingsgroepen eerder met deze technologieën hebben gewerkt. Dit toont een groeiende vertrouwdheid en afhankelijkheid van AI in verschillende demografieën.

9. AI4DEBUNK PROJECT

Inna Šteinbuka van de Universiteit van Letland informeerde het publiek over de doelstellingen van AI4Debunk. Het project richt zich op het ontwikkelen van mensvriendelijke instrumenten om desinformatie te ontkrachten, waarbij de noodzaak wordt benadrukt van het creëren van toegankelijke en effectieve methoden voor het publiek om valse informatie te identificeren en te bestrijden.

Fotocredits: Karīna Egliena en Kristaps Briedis

Kort samengevat bracht de discussie de tweeledige aard van AI op het gebied van media- en informatiebeveiliging aan het licht, waarbij werd gepleit voor een evenwichtige aanpak waarbij de voordelen van AI worden benut en de risico’s ervan worden beperkt door middel van onderwijs, regelgeving en kritisch denken.

Bekijk de opgenomen paneldiscussie (in het Lets) hier.

Een schriftelijke samenvatting is beschikbaar onder de video. Om het in het Engels te lezen, schakelt u de automatische vertaalfunctie in uw browser in.

Meer van AI4Debunk

Op 6 november 2025 vond de AI4DEBUNK Multi-Stakeholder Round Table plaats in de Brussels Press Club, waar meer dan 20 deskundigen bijeenkwamen.
Zonder te wachten op wereldwijde normen, heeft Oekraïne flexibele AI-aangedreven verdedigingen gebouwd die het Westen zou moeten bestuderen, repliceren en opschalen.
In haar Staat van de Unie 2025 bevestigde voorzitter Von der Leyen opnieuw de strijd van de EU tegen desinformatie, een missie die we al meer dan twee jaar bij AI4Debunk steunen!