Vesten skal lære af Ukraines AI-krig for sandheden

Uden at vente på globale standarder har Ukraine bygget smidige AI-drevne forsvar, som Vesten bør studere, replikere og skalere.

Forestil dig en fjende, der aldrig sover, koster penge at operere, og kan omskrive virkeligheden hurtigere end nogen menneskelig faktatjekker. Det er det våben, Rusland har bygget med kunstig intelligens: en global desinformationsmaskine, der alene i 2024 udklækkede 3,6 millioner propagandaartikler, og som blev lagt ud på 150 falske nyhedswebsteder i 49 lande.

I begyndelsen af 2025 dukkede der rapporter op, der beskriver en sofistikeret russisk strategi for at udnytte kunstig intelligens til desinformation, ikke kun for at ramme mennesker direkte, men for subtilt at korrumpere træningsdataene og realtidshentningsprocesserne i vestlige AI-systemer.

Denne taktik, kaldet "LLM grooming", indebærer masseproduktion og udbredelse af tusindvis af AI-genererede artikler, der er snøret med Kremlvenlige usandheder. Målet? Sørg for, at disse fortællinger siver ind i de datasæt, der driver store sprogmodeller (LLM'er), der fører chatbots som ChatGPT, Gemini og Grok til uforvarende at forstærke russisk propaganda i deres svar.

Kernen i denne kampagne er "Pravda"-netværket (russisk for "sandhed"), en omfattende operation med base i Moskva, der blev iværksat i april 2022, kort efter Ruslands omfattende invasion af Ukraine.  Den omskriver statslige medier, omskriver vestlige kilder og oversvømmer nettet med Kremls løgne – amerikanske biovåbenlaboratorier, Zelenskyj-bedrageristøtte, NATO-provokerende krig – indtil de bliver det dominerende signal i søgeresultater og AI-træningsdata.

En marts 2025 NewsGuard revision viste, at alle ti store chatbots gentog Pravda-indkøbte usandheder 33% af tiden, med forurening skyhøje på niche forespørgsler, hvor troværdige kilder er knappe. Der er ikke tale om indirekte skader. Det er dataforgiftning som strategi, og det virker.

Vesten har reageret – sent – med regulering, teknologifiltre og fjernelser. EU's forordning om kunstig intelligens og forordningen om digitale tjenester kræver gennemsigtighed. OpenAI og Google har hærdet hentningsforstærket generation (RAG) for at markere RT og Sputnik. Chatbot citering af russiske kilder er faldet fra 33% til 15-20%. Det er reelle gevinster. Men de er reaktive, bygget på den antagelse, at slagmarken stadig er det åbne internet, hvor regler og revisioner kan holde trit.

Ukraine ved bedre. I tre år har den udkæmpet denne krig i realtid, under beskydning, med sirener i baggrunden. Og den vinder – ikke ved at vente på globale standarder, men ved at opbygge smidige, hensynsløse, AI-drevne forsvarsmekanismer, som Vesten bør studere, kopiere og skalere.

Start med Center for Bekæmpelse af Desinformation (CCD), en fusionscelle, der er oprettet døgnet rundt alle ugens dage under Ukraines nationale sikkerheds- og forsvarsråd. I midten af 2025 havde den katalogiseret 191 AI-drevne russiske operationer, fra deepfake Zelenskyj-videoer til syntetisk lyd af generaler, der overgav sig. Ved hjælp af maskinlæring reagerer forbrugerkreditdirektivet ikke kun – det forudsiger. Den scanner over 1 000 kilder på flere sprog, registrerer synkroniserede botbølger og udsender "prebunks", før løgne går viralt.

Der er de nystartede født i bombe krisecentre. Osavul, der blev lanceret dage ind i invasionen, bruger behandling af naturligt sprog til at kortlægge desinformationsnetværk på tværs af TikTok, Telegram og X og advarer journalister på få sekunder. Den afslørede den største AI-fortælling af propaganda op nogensinde — TikTok-videoer på syv sprog, der beskylder ukrainske ledere for korruption. Mantis Analytics geolokaliserer kombattanter fra skrabede billeder og afslører russisk "faktisk udvanding" af krigsforbrydelser. Selv kontroversielle værktøjer som Clearview AI anvendes — ikke til overvågning, men til at afsløre propagandister bag deepfakes, som f.eks. det falske Poroshenko Zoom-opkald fra 2023, der havde til formål at skabe uro.

Det er ikke teoretisk. Det er kamptestet. Ukraines hackathon i maj 2025, "AI for Ukraine Recovery", producerede værktøjer, der nu anvendes af frontlinjemedier til at kontrollere strejker og bekæmpe cyberalarmer. Kyiv Independents OSINT-skranke bruger kunstig intelligens til at opbygge modfortællinger, der når ud til millioner. Og Ukraines lov om bekæmpelse af desinformation — ajourført i 2024 — skaber balance mellem sikkerhed og ytringsfrihed og tilbyder en model, som Vesten stadig debatterer i udvalgene.

Kontrasten er stærk. Mens Bruxelles udarbejder 400-siders regler og Silicon Valley A / B-testfiltre, opererer Ukraine med krigstid. Den venter ikke på konsensus – den gentager, udsender, lærer. Når Rusland tilpasser sig, mindskes Ukraines kant fra måneder til dage. Men den holder aldrig op med at bevæge sig.

Vestens fejl er at behandle dette som et teknisk problem – en fejl, der skal rettes op på med revisioner og blockchain. Ukraine ser det som en krig. Og i krig vinder man ikke ved at være retfærdig. Du vinder ved at være hurtigere, klogere og mere hensynsløs med sandheden.

Her er, hvad Vesten må låne:

  • Opbyg fusionsceller, ikke arbejdsgrupper. CCD-modellen — regering, nystartede virksomheder, medier, OSINT — bør kopieres i alle NATO-hovedstæder.
  • Våben præbunking. Ukraine poder publikum, før løgnene spredes. USA og EU jagter stadig viralitet efter det faktum.
  • Omfavn kontroversielle værktøjer. Clearview AI har fejl, men i Kiev afslører det løgnere. Perfekt er overlevelsens fjende.
  • Reguler med tænder, ikke papir. Ukraines lovgivning fra 2024 tvinger platforme til at handle. 6 i retsakten om digitale tjenester% bøder er en begyndelse — håndhæve dem.
  • Finansiering af frontlinjen. Ukraines nystartede virksomheder kører på grus og tilskud. Vesten har milliarder til AI-sikkerhed – omdirigering 1% til Kievs dokumenterede laboratorier.

Ruslands spillebog – skalerbar, billig, ikke målbar – vil blive kopieret. Det næste mål vil ikke være Ukraine. Det bliver jeres valg, jeres reaktion på pandemien, jeres klimadebat. AI vil forstærke den højeste løgner, medmindre vi lærer af det land, der har stirret ind i afgrunden og bygget et spejl.

Ukraine beder ikke om medlidenhed. Det tilbyder en masterclass. Vesten bør holde op med at regulere og undervise og begynde at lytte – og handle.

Teksten i dette blogindlæg er hentet fra EU-dækkende Artikel tilgængelig på https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/

Om GEORGI GOTEV

Georgi Gotev er journalist med speciale i EU-anliggender og var aktiv i Bulgarien i 1990'erne og i Bruxelles fra 2007 til i dag. I 2025 grundlagde han EUalive.

AI4Debunk finansieres under Horisont Europa-programmet (tilskudsaftale nr. 101135757) og samler tværfaglige partnere, der arbejder for at udstyre de europæiske borgere med den viden, de rammer og de kritiske værktøjer, der er nødvendige for at navigere i dagens komplekse informationslandskab.

Læs mere om AI4Debunk

EUalive afholdt en offentlig debat med det formål at undersøge, hvordan AI-drevne værktøjer kan støtte bestræbelserne på at bekæmpe falske nyheder og desinformation.
I de seneste år er desinformation gået fra lejlighedsvise skud af "falske nyheder" til en systemisk trussel, der anvender sproglig manipulation, mediemekanismer, kunstig intelligens og tværnationale politiske strategier til at
En debat med deltagelse af flere interessenter med titlen "The Use of Artificial Intelligence in Combating Disinformation" (Anvendelse af kunstig intelligens til bekæmpelse af desinformation), der blev afholdt af Letlands universitet, blev afholdt i Riga den 6. januar 2026.