Rietumiem ir jāmācās no Ukrainas mākslīgā intelekta kara par patiesību

Negaidot globālos standartus, Ukraina ir izveidojusi elastīgus, ar mākslīgo intelektu darbināmus aizsardzības pasākumus, kas Rietumiem būtu jāpēta, jāatkārto un jāmēro

Iedomājieties ienaidnieku, kas nekad neguļ, maksā pennies darboties, un var pārrakstīt realitāti ātrāk nekā jebkurš cilvēks faktu pārbaudītājs. Tas ir ierocis, ko Krievija ir izveidojusi ar mākslīgo intelektu: globāla dezinformācijas mašīna, kas 2024. gadā vien iznīcināja 3,6 miljonus propagandas rakstu, kuri tika izplatīti 150 viltus ziņu vietnēs 49 valstīs.

2025. gada sākumā parādījās ziņojumi, kuros sīki izklāstīta sarežģīta Krievijas stratēģija mākslīgā intelekta izmantošanai dezinformācijai, ne tikai lai tieši vērstos pret cilvēkiem, bet arī lai smalki korumpētu Rietumu MI sistēmu apmācības datus un reāllaika izguves procesus.

Šī taktika, ko dēvē par “LLM uzmākšanos”, ietver tūkstošiem MI radītu izstrādājumu masveida ražošanu un izplatīšanu, kas saistīti ar Kremli atbalstošām nepatiesībām. Mērķis? Nodrošināt, ka šie naratīvi iekļūst datu kopās, kas iedarbina lielus valodu modeļus (LLM), vadot tādus sarunbotus kā ChatGPT, Gemini un Grok, lai neapzināti pastiprinātu Krievijas propagandu viņu reakcijās.

Šīs kampaņas pamatā ir tīkls “Pravda” (krievu – “patiesībai”), kas ir spraiga Maskavā bāzēta operācija, kura tika sākta 2022. gada aprīlī neilgi pēc Krievijas pilna mēroga iebrukuma Ukrainā.  Tā pārprofilē valsts medijus, pārraksta Rietumu avotus un pārpludina tīmekli ar Kremļa meliem — ASV bioieroču laboratorijām, Zelenska piesavināšanās palīdzību, NATO provocējošo karu —, līdz tie kļūst par dominējošo signālu meklēšanas rezultātos un MI apmācības datos.

2025. gada martā NewsGuard revīzijā tika konstatēts, ka visi desmit lielākie sarunboti atkārto Pravda radītos nepatiesus apgalvojumus 33% no tā laika, kad piesārņojums paaugstinājās uz nišas vaicājumiem, kur uzticamu avotu ir maz. Tas nav papildu kaitējums. Tā ir datu saindēšanās kā stratēģija, un tā darbojas.

Rietumi ir novēloti reaģējuši ar regulējumu, tehnoloģiju filtriem un izņemšanu. ES Mākslīgā intelekta akts un Digitālo pakalpojumu akts prasa pārredzamību. OpenAI un Google ir nocietinājuši izguves papildināto paaudzi (RAG), lai atzīmētu RT un Sputnik. Chatbot citēšana Krievijas avotiem ir samazinājies no 33% līdz 15–20%. Tie ir reāli ieguvumi. Bet tie ir reaģējoši, balstīti uz pieņēmumu, ka kaujas lauks joprojām ir atklāts internets, kur noteikumi un revīzijas var iet kopsolī.

Ukraina zina labāk. Trīs gadus tā ir cīnījusies pret šo karu reālajā laikā, zem uguns, ar sirēnām fonā. Un tā ir uzvara – nevis gaidot globālus standartus, bet gan veidojot elastīgu, nežēlīgu, ar mākslīgo intelektu darbināmu aizsardzību, kas Rietumiem būtu jāpēta, jāatkārto un jāmēro.

Sāciet ar Dezinformācijas apkarošanas centru (CCD), kas ir 24 stundas diennaktī 7 dienas nedēļā izvietota kodolsintēzes vienība Ukrainas Nacionālās drošības un aizsardzības padomes paspārnē. Līdz 2025. gada vidum tā bija kataloģizējusi 191 Krievijas operāciju, kuru pamatā bija mākslīgais intelekts, no dziļviltotiem Zelenska video līdz ģenerāļu padošanās sintētiskajam audio. Izmantojot mašīnmācīšanos, CCD ne tikai reaģē, bet arī prognozē. Tas skenē vairāk nekā 1000 avotu vairākās valodās, pamana sinhronizētus botu pārspriegumus un izdod “prebunks”, pirms meli kļūst par vīrusiem.

Ir startups dzimis bumbu patversmes. Osavul, kas uzsāka iebrukumu, izmanto dabiskās valodas apstrādi, lai kartētu dezinformācijas tīklus TikTok, Telegram un X, dažu sekunžu laikā brīdinot žurnālistus. Tā atmaskoja visu laiku lielāko MI propagandu — “TikTok” videosižetus septiņās valodās, apsūdzot Ukrainas vadītājus korupcijā. Mantis Analytics ģeolokalizē kaujiniekus no nokasītiem attēliem, atmaskojot Krievijas “faktu vājināšanos” kara noziegumos. Pat pretrunīgi instrumenti, piemēram, Clearview AI, tiek izmantoti nevis novērošanai, bet gan, lai atmaskotu propagandistus aiz dziļviltojumiem, piemēram, 2023. gada viltus Poroshenko Zoom zvans, kura mērķis bija izraisīt nemierus.

Tas nav teorētiski. Tas ir kaujas pārbaudīts. Ukrainas 2025. gada maija hakatonā “MI Ukrainas atveseļošanai” tika izstrādāti rīki, ko tagad izmanto frontes līnijas mediji, lai pārbaudītu uzbrukumus un apkarotu kiberbrīdinājumus. Kijevas Neatkarīgā OSINT nodaļa izmanto mākslīgo intelektu, lai veidotu atbildes vēstījumus, kas sasniedz miljonus. Un Ukrainas Likums par dezinformācijas apkarošanu, kas atjaunināts 2024. gadā, līdzsvaro drošību ar vārda brīvību, piedāvājot modeli, ko Rietumi joprojām apspriež komitejās.

Kontrasts ir stingrs. Kamēr Brisele izstrādā 400 lappušu garus noteikumus un Silīcija ielejas A/B testa filtrus, Ukraina darbojas kara laikā. Tas negaida konsensu — tas atkārtojas, izvēršas, mācās. Kad Krievija pielāgojas, Ukrainas priekšrocības samazinās no mēnešiem līdz dienām. Bet tas nekad nepārstāj kustēties.

Rietumu kļūda ir uzskatīt to par tehnoloģiju problēmu — kļūdu, kas saistīta ar revīzijām un blokķēdi. Ukraina to uzskata par karu. Un karā tu negūsti uzvaru, būdams taisnīgs. Jūs uzvarat, būdams ātrāks, gudrāks un nežēlīgāks ar patiesību.

Lūk, kas Rietumiem ir jāaizņemas:

  • Veidojiet kodolsintēzes šūnas, nevis darba grupas. CCD modelis — valdība, jaunuzņēmumi, plašsaziņas līdzekļi, OSINT — būtu jāatkārto visās NATO galvaspilsētās.
  • Ieroču prebunking. Ukraina inokulē auditoriju, pirms meli izplatās. ASV un ES pēc tam joprojām seko vīrusiem.
  • Izmantot pretrunīgus instrumentus. Clearview AI ir trūkumi, bet Kijevā tas atmasko meļus. Ideāls ir izdzīvošanas ienaidnieks.
  • Regulējiet ar zobiem, nevis papīru. Ukrainas 2024. gada likums liek platformām rīkoties. DPA 6% naudas sodi ir sākums — piespiediet tos.
  • Finansēt frontes līniju. Ukrainas jaunuzņēmumi darbojas uz grauda un dotācijām. Rietumiem ir miljardi mākslīgā intelekta drošībai — pārorientēt 1% Kijevas pārbaudītajām laboratorijām.

Tiks nokopēta Krievijas rokasgrāmata — mērogojama, lēta, nenosakāma. Nākamais mērķis nebūs Ukraina. Tās būs jūsu vēlēšanas, jūsu reakcija uz pandēmiju, jūsu debates par klimatu. MI pastiprinās skaļāko meli, ja vien mēs nemācīsimies no valsts, kas ir skatījusies bezdibenī un uzcēlusi spoguli.

Ukraina nelūdz žēlumu. Tā piedāvā meistarklasi. Rietumiem būtu jāpārtrauc regulēt un mācīt, un jāsāk klausīties un rīkoties.

Teksts šajā emuāra ierakstā ir izgūts no EUalive pants pieejams tīmekļa vietnē: https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/

Par GEORGI GOTEV

Georgi Gotev ir žurnālists, kas specializējies ES lietās un darbojas Bulgārijā deviņdesmitajos gados un Briselē no 2007. gada līdz mūsdienām. 2025. gadā viņš nodibināja EUalive.

AI4Debunk tiek finansēts no programmas “Apvārsnis Eiropa” (dotācijas nolīgums Nr. 101135757), un tas apvieno daudznozaru partnerus, kuri strādā, lai Eiropas iedzīvotājiem nodrošinātu zināšanas, satvarus un kritiski svarīgus rīkus, kas vajadzīgi, lai orientētos mūsdienu sarežģītajā informācijas vidē.

Vairāk no AI4Debunk

2025. gada 6. novembrī Briseles preses klubā notika AI4DEBUNK daudzpusējā ieinteresēto personu apaļā galda sanāksme, kurā piedalījās vairāk nekā 20 eksperti.
Savā 2025. gada runā par stāvokli Savienībā priekšsēdētāja Urzula fon der Leiena atkārtoti apstiprināja ES cīņu pret dezinformāciju — misiju, ko esam atbalstījuši AI4Debunk vairāk nekā divus gadus!
Konsorcijs AI4Debunk 2025. gada 4. un 5. septembrī uzsāka savu Ģenerālo asambleju MICC — Mediju integrācijas un komunikācijas centrā Florences Universitātē, Itālijā.