Västvärlden måste lära av Ukrainas AI-krig för sanning

Utan att vänta på globala standarder har Ukraina byggt agila AI-drivna försvar som västvärlden bör studera, replikera och skala.

Föreställ dig en fiende som aldrig sover, kostar pengar att använda och kan skriva om verkligheten snabbare än någon mänsklig faktagranskare. Det är det vapen Ryssland har byggt med artificiell intelligens: en global desinformationsmaskin som slängde ut 3,6 miljoner propagandaartiklar enbart under 2024, på 150 falska nyhetssajter i 49 länder.

I början av 2025 framkom rapporter om en sofistikerad rysk strategi för att utnyttja artificiell intelligens för desinformation, inte bara för att rikta in sig direkt på människor, utan för att subtilt korrumpera träningsdata och realtidsprocesser för hämtning av västerländska AI-system.

Denna taktik, som kallas ”LLM-grooming”, innebär att man massproducerar och sprider tusentals AI-genererade artiklar spetsade med Kremlvänliga lögner. Målet? Se till att dessa berättelser sipprar in i de dataset som driver stora språkmodeller (LLM), vilket leder chatbots som ChatGPT, Gemini och Grok att omedvetet förstärka rysk propaganda i sina svar.

Kärnan i denna kampanj är nätverket ”Pravda” (ryska för ”sanning”), en omfattande Moskvabaserad insats som inleddes i april 2022, strax efter Rysslands fullskaliga invasion av Ukraina.  Den återanvänder statliga medier, skriver om västerländska källor och översvämmar nätet med Kremls lögner – amerikanska biovapenlaboratorier, Zelenskyj som förskingrar bistånd, Nato som provocerar fram krig – tills de blir den dominerande signalen i sökresultat och AI-träningsdata.

En granskning av NewsGuard i mars 2025 visade att alla tio stora chatbots upprepade Pravda-baserade lögner 33% av tiden, med föroreningar som skjuter i höjden på nischfrågor där trovärdiga källor är knappa. Detta är inte en säkerhetsskada. Det är dataförgiftning som strategi, och det fungerar.

Västvärlden har – för sent – reagerat med reglering, teknikfilter och nedtagningar. EU:s AI-akt och rättsakt om digitala tjänster kräver transparens. OpenAI och Google har härdat hämtningsförstärkt generation (RAG) för att flagga RT och Sputnik. Chatbot citering av ryska källor har sjunkit från 33% till 15–20%. Det är verkliga vinster. Men de är reaktiva, byggda på antagandet att slagfältet fortfarande är det öppna internet, där regler och revisioner kan hålla jämna steg.

Ukraina vet bättre. I tre år har den utkämpat detta krig i realtid, under eld, med sirener i bakgrunden. Och det är att vinna – inte genom att vänta på globala standarder, utan genom att bygga agila, hänsynslösa, AI-drivna försvar som västvärlden bör studera, replikera och skala.

Börja med Centrumet för motverkande av desinformation (CCD), en fusionscell som är öppen dygnet runt alla dagar i veckan under Ukrainas nationella säkerhets- och försvarsråd. I mitten av 2025 hade man katalogiserat 191 AI-drivna ryska operationer, från deepfake Zelenskyj-videor till syntetiska ljud av generaler som kapitulerade. Med hjälp av maskininlärning reagerar CCD inte bara – det förutspår. Den skannar över 1 000 källor på flera språk, upptäcker synkroniserade botökningar och utfärdar ”prebunks” innan lögner blir virala.

Det finns startups som är födda i skyddsrum. Osavul, som lanserades dagar in i invasionen, använder bearbetning av naturligt språk för att kartlägga desinformationsnätverk över TikTok, Telegram och X och varnar journalister på några sekunder. Den avslöjade den största AI-berättade propagandan någonsin – Tiktok-videor på sju språk där ukrainska ledare anklagas för korruption. Mantis Analytics geolokaliserar kombattanter från skrapade bilder och avslöjar rysk ”faktautspädning” om krigsförbrytelser. Även kontroversiella verktyg som Clearview AI används – inte för övervakning, utan för att avslöja propagandister bakom deepfakes, som 2023 års falska Poroshenko Zoom-samtal som syftar till att skapa oro.

Detta är inte teoretiskt. Det är stridstestat. Ukrainas hackaton från maj 2025, AI for Ukraine Recovery, producerade verktyg som nu används av medier i frontlinjen för att kontrollera strejker och motverka cybervarningar. Kiev Independents OSINT-disk använder AI för att bygga upp motberättelser som når miljoner. Och Ukrainas lag om motverkande av desinformation – som uppdaterades 2024 – balanserar säkerhet med yttrandefrihet och erbjuder en modell som väst fortfarande debatterar i utskotten.

Kontrasten är stark. Medan Bryssel utarbetar 400-sidiga förordningar och Silicon Valley A / B-testfilter, arbetar Ukraina med krigstid. Det väntar inte på konsensus – det itererar, sprider, lär sig. När Ryssland anpassar sig krymper Ukrainas kant från månader till dagar. Men det slutar aldrig röra sig.

Västvärldens misstag är att behandla detta som ett tekniskt problem – en bugg att rätta till med revisioner och blockkedjor. Ukraina ser det som ett krig. Och i krig vinner man inte på att vara rättvis. Du vinner genom att vara snabbare, smartare och mer hänsynslös med sanningen.

Här är vad västvärlden måste låna:

  • Bygg fusionsceller, inte arbetsgrupper. CCD-modellen – regering, uppstartsföretag, medier, OSINT – bör kopieras i varje Nato-huvudstad.
  • Vapenförstärka prebunking. Ukraina vaccinerar publiken innan lögnerna sprids. USA och EU jagar fortfarande viralitet efter det faktum.
  • Omfamna kontroversiella verktyg. Clearview AI har brister, men i Kiev avslöjar det lögnare. Perfekt är fienden till överlevnad.
  • Reglera med tänder, inte papper. Ukrainas lag från 2024 tvingar plattformarna att agera. Rättsakten om digitala tjänster 6% Böter är en början – verkställ dem.
  • Finansiera frontlinjen. Ukrainas nystartade företag drivs av grus och bidrag. Västvärlden har miljarder för AI-säkerhet – omdirigera 1% till Kievs beprövade laboratorier.

Rysslands spelbok – skalbar, billig, odetekterbar – kommer att kopieras. Nästa mål blir inte Ukraina. Det kommer att bli ditt val, din pandemirespons, din klimatdebatt. AI kommer att förstärka den mest högljudda lögnaren om vi inte lär oss av landet som har stirrat in i avgrunden och byggt en spegel.

Ukraina ber inte om medlidande. Det är att erbjuda en masterclass. Västvärlden bör sluta reglera och föreläsa och börja lyssna – och agera.

Texten i detta blogginlägg har hämtats från EUalive artikel tillgänglig på https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/

Om GEORGI GOTEV

Georgi Gotev är journalist specialiserad på EU-frågor och verksam i Bulgarien under 1990-talet och i Bryssel från 2007 till idag. År 2025 grundade han EUalive.

AI4Debunk finansieras genom Horisont Europa-programmet (bidragsavtal nr 101135757) och sammanför tvärvetenskapliga partner som arbetar för att förse EU-medborgarna med den kunskap, de ramar och de kritiska verktyg som behövs för att navigera i dagens komplexa informationslandskap.

Mer från AI4Debunk

EUalive anordnade en offentlig diskussion i syfte att undersöka hur AI-drivna verktyg kan stödja insatser för att motverka falska nyheter och desinformation.
Under de senaste åren har desinformation gått från enstaka skott av ”falska nyheter” till ett systemhot som använder språklig manipulation, mediemekanismer, artificiell intelligens och transnationella politiska strategier för att
En flerpartsdiskussion om användningen av artificiell intelligens i kampen mot desinformation, som anordnades av Lettlands universitet, hölls i Riga den 6 januari 2026.