Het Westen moet leren van de Oekraïense AI-oorlog om de waarheid

Zonder te wachten op wereldwijde normen, heeft Oekraïne flexibele AI-aangedreven verdediging gebouwd die het Westen moet bestuderen, repliceren en opschalen

Stel je een vijand voor die nooit slaapt, centen kost om te opereren en de realiteit sneller kan herschrijven dan welke menselijke factchecker dan ook. Dat is het wapen dat Rusland heeft gebouwd met kunstmatige intelligentie: een wereldwijde desinformatiemachine die alleen al in 2024 3,6 miljoen propagandaartikelen versloeg, verspreid over 150 nepnieuwssites in 49 landen.

Begin 2025 kwamen er rapporten naar voren waarin een geavanceerde Russische strategie werd beschreven om kunstmatige intelligentie te gebruiken voor desinformatie, niet alleen om mensen rechtstreeks te targeten, maar om de trainingsgegevens en realtime ophalenprocessen van westerse AI-systemen subtiel te corrumperen.

Deze tactiek, genaamd “LLM grooming”, omvat de massaproductie en verspreiding van duizenden door AI gegenereerde artikelen die zijn doorspekt met pro-Kremlin-valsheden. Het doel? Zorg ervoor dat deze verhalen in de datasets sijpelen die grote taalmodellen (LLM's) aandrijven, waardoor chatbots zoals ChatGPT, Gemini en Grok onbewust Russische propaganda in hun reacties versterken.

Centraal in deze campagne staat het “Pravda”-netwerk (Russisch voor “waarheid”), een uitgestrekte, in Moskou gevestigde operatie die in april 2022 van start ging, kort na de grootschalige Russische invasie van Oekraïne.  Het herbestemt staatsmedia, herschrijft westerse bronnen en overspoelt het web met leugens van het Kremlin – Amerikaanse biowapenlaboratoria, Zelensky die hulp verduisteren, de NAVO die oorlog uitlokt – totdat ze het dominante signaal worden in zoekresultaten en AI-opleidingsgegevens.

Uit een NewsGuard-audit van maart 2025 bleek dat alle tien grote chatbots uit Pravda afkomstige onwaarheden herhaalden 33% van de tijd, met besmetting stijgend op niche-query's waar geloofwaardige bronnen schaars zijn. Dit is geen collateral damage. Het is datavergiftiging als strategie en het werkt.

Het Westen heeft – laattijdig – gereageerd met regelgeving, technische filters en verwijderingen. De AI-verordening en de wet inzake digitale diensten van de EU vereisen transparantie. OpenAI en Google hebben de retrieval-augmented generation (RAG) verhard om RT en Sputnik te markeren. Chatbot citatie van Russische bronnen is gedaald van 33% tot en met 15-20%. Dat zijn echte winsten. Maar ze zijn reactief, gebaseerd op de veronderstelling dat het slagveld nog steeds het open internet is, waar regels en audits gelijke tred kunnen houden.

Oekraïne weet wel beter. Drie jaar lang heeft het deze oorlog in real time uitgevochten, onder vuur, met sirenes op de achtergrond. En het wint – niet door te wachten op mondiale normen, maar door flexibele, meedogenloze, door AI aangedreven verdedigingen op te bouwen die het Westen moet bestuderen, repliceren en opschalen.

Begin met het Centrum voor de bestrijding van desinformatie (CCD), een 24/7-fusiecel onder de Nationale Veiligheids- en Defensieraad van Oekraïne. Halverwege 2025 had het 191 door AI aangedreven Russische operaties gecatalogiseerd, van deepfake Zelensky-video's tot synthetische audio van generaals die zich overgaven. Met behulp van machinaal leren reageert de CCD niet alleen, maar voorspelt hij ook. Het scant meer dan 1000 bronnen in meerdere talen, detecteert gesynchroniseerde botpieken en geeft "prebunks" af voordat leugens viraal gaan.

Er zijn de startups geboren in schuilkelders. Osavul, die dagen na de invasie werd gelanceerd, gebruikt natuurlijke taalverwerking om desinformatienetwerken in TikTok, Telegram en X in kaart te brengen en journalisten binnen enkele seconden te waarschuwen. Het ontmaskerde de grootste op AI gebaseerde propaganda-op ooit: TikTok-video’s in zeven talen waarin Oekraïense leiders van corruptie worden beschuldigd. Mantis Analytics geolokaliseert strijders uit geschraapte beelden en ontkracht Russische “feitenverdunning” over oorlogsmisdaden. Zelfs controversiële instrumenten zoals Clearview AI worden ingezet — niet voor surveillance, maar om propagandisten achter deepfakes te ontmaskeren, zoals de nepoproep van Poroshenko Zoom uit 2023 die bedoeld was om onrust te zaaien.

Dit is niet theoretisch. Het is battle-tested. De hackathon van Oekraïne van mei 2025, “AI for Ukraine Recovery”, heeft instrumenten opgeleverd die nu door de media in de frontlinie worden gebruikt om stakingen te verifiëren en cyberwaarschuwingen tegen te gaan. De OSINT-desk van Kyiv Independent maakt gebruik van AI om tegenverhalen op te stellen die miljoenen bereiken. En de Oekraïense wet inzake de bestrijding van desinformatie, die in 2024 is bijgewerkt, brengt veiligheid in evenwicht met vrijheid van meningsuiting en biedt een model dat het Westen nog steeds in commissies bespreekt.

Het contrast is groot. Terwijl Brussel 400 pagina's tellende regelgeving opstelt en Silicon Valley A / B-testfilters test, werkt Oekraïne met urgentie in oorlogstijd. Het wacht niet op consensus – het itereert, implementeert, leert. Wanneer Rusland zich aanpast, krimpt de rand van Oekraïne van maanden tot dagen. Maar het stopt nooit met bewegen.

De fout van het Westen is dit te behandelen als een technisch probleem – een bug om te patchen met audits en blockchain. Oekraïne ziet het als oorlog. En in oorlogen win je niet door eerlijk te zijn. Je wint door sneller, slimmer en meedogenlozer te zijn met de waarheid.

Dit is wat het Westen moet lenen:

  • Bouw fusiecellen, geen werkgroepen. Het CCD-model — overheid, start-ups, media, OSINT — moet in elke NAVO-hoofdstad worden gerepliceerd.
  • Weaponize prebunking. Oekraïne inoculeert publiek voordat leugens zich verspreiden. De VS en de EU jagen nog steeds op viraliteit na het feit.
  • Omarm controversiële tools. Clearview AI heeft gebreken, maar in Kiev ontmaskert het leugenaars. Perfectie is de vijand van overleven.
  • Regelen met tanden, niet met papier. De Oekraïense wet van 2024 dwingt platforms om op te treden. 6 van de wet inzake digitale diensten% boetes zijn een begin — dwing ze af.
  • Financier de frontlinie. De start-ups van Oekraïne draaien op grit en subsidies. Het Westen heeft miljarden voor AI-veiligheid — omleiding 1% naar de beproefde laboratoria van Kiev.

Het speelboek van Rusland – schaalbaar, goedkoop, niet-detecteerbaar – zal worden gekopieerd. De volgende doelstelling zal niet Oekraïne zijn. Het zal uw verkiezing zijn, uw respons op de pandemie, uw klimaatdebat. AI zal de luidste leugenaar versterken, tenzij we leren van het land dat in de afgrond heeft gestaard en een spiegel heeft gebouwd.

Oekraïne vraagt niet om medelijden. Het biedt een masterclass aan. Het Westen moet stoppen met reguleren en lezingen geven en beginnen te luisteren en te handelen.

De tekst in deze blogpost is afkomstig van de EUalive artikel beschikbaar op https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/

OVER GEORGI GOTEV

Georgi Gotev is een journalist gespecialiseerd in EU-aangelegenheden, actief in Bulgarije in de jaren negentig en in Brussel van 2007 tot heden. In 2025 richtte hij EUalive op.

AI4Debunk wordt gefinancierd in het kader van het programma Horizon Europa (subsidieovereenkomst nr. 101135757) en brengt multidisciplinaire partners samen die werken om de Europese burgers uit te rusten met de kennis, kaders en kritieke instrumenten die nodig zijn om door het complexe informatielandschap van vandaag te navigeren.

Meer van AI4Debunk

Op 6 november 2025 vond de AI4DEBUNK Multi-Stakeholder Round Table plaats in de Brussels Press Club, waar meer dan 20 deskundigen bijeenkwamen.
In haar Staat van de Unie 2025 bevestigde voorzitter Von der Leyen opnieuw de strijd van de EU tegen desinformatie, een missie die we al meer dan twee jaar bij AI4Debunk steunen!
Het AI4Debunk-consortium startte zijn algemene vergadering op 4 en 5 september 2025 in het MICC – Media Integration and Communication Center aan de Universiteit van Florence, Italië.