Vakarai turi pasimokyti iš Ukrainos dirbtinio intelekto karo dėl tiesos

Nelaukdama pasaulinių standartų, Ukraina sukūrė lanksčią dirbtiniu intelektu grindžiamą gynybą, kurią Vakarai turėtų studijuoti, atkartoti ir išplėsti.

Įsivaizduokite priešą, kuris niekada nemiega, kainuoja centus, kad veiktų, ir gali perrašyti realybę greičiau nei bet kuris žmogaus faktų tikrintojas. Tai yra ginklas, kurį Rusija sukūrė naudodama dirbtinį intelektą: pasaulinė dezinformacijos mašina, vien 2024 m. sukūrusi 3,6 mln. propagandinių straipsnių ir pasklidusi 150 melagingų naujienų svetainių 49 šalyse.

2025 m. pradžioje pasirodė ataskaitos, kuriose išsamiai aprašyta sudėtinga Rusijos strategija, kaip panaudoti dirbtinį intelektą dezinformacijai ne tik tiesiogiai nukreipti žmones, bet ir subtiliai sugadinti Vakarų DI sistemų mokymo duomenis ir paieškos realiuoju laiku procesus.

Pagal šią taktiką, vadinamą „LLM grooming“, masiškai gaminama ir platinama tūkstančiai dirbtiniu intelektu sukurtų gaminių su Kremliui palankiomis melagystėmis. Tikslas? Užtikrinkite, kad šie naratyvai įsiskverbtų į duomenų rinkinius, kurie valdo didelius kalbos modelius (LLM), pirmaujančius pokalbių robotus, tokius kaip "ChatGPT", "Gemini" ir "Grok", kad nesąmoningai sustiprintų Rusijos propagandą savo atsakymuose.

Šios kampanijos pagrindas – tinklas „Pravda“ (rusų kalba už tiesą), 2022 m. balandžio mėn., netrukus po Rusijos plataus masto invazijos į Ukrainą, pradėta plataus masto Maskvoje vykdoma operacija.  Ji pertvarko valstybinę žiniasklaidą, perrašo Vakarų šaltinius ir užlieja žiniatinklį Kremliaus melu – JAV bioginklų laboratorijomis, V. Zelenskio pasisavinama pagalba, karą provokuojančia NATO – kol jie tampa dominuojančiu signalu paieškos rezultatuose ir dirbtinio intelekto mokymo duomenyse.

2025 m. kovo mėn. "NewsGuard" auditas nustatė, kad visi dešimt pagrindinių pokalbių robotų pakartojo "Pravda" pateiktus melus 33% tuo metu, kai užterštumas sparčiai didėja dėl nišinių užklausų, kai patikimų šaltinių yra mažai. Tai nėra šalutinė žala. Tai yra duomenų apsinuodijimas kaip strategija, ir ji veikia.

Vakarai pavėluotai reagavo reguliavimu, technologijų filtrais ir turinio šalinimu. ES DI akte ir Skaitmeninių paslaugų akte reikalaujama skaidrumo. "OpenAI" ir "Google" sugriežtino paieškos papildytą kartą (RAG), kad pažymėtų RT ir "Sputnik". "Chatbot" citavimas iš Rusijos šaltinių sumažėjo nuo 33% nuo 15 iki 20%. Tai yra realūs laimėjimai. Tačiau jie yra reaktyvūs, grindžiami prielaida, kad mūšio laukas vis dar yra atviras internetas, kuriame taisyklės ir auditas gali neatsilikti.

Ukraina žino geriau. Trejus metus ji kovojo su šiuo karu realiu laiku, su ugnimi, su sirenomis fone. Ir ji laimi – ne laukdama pasaulinių standartų, o kurdama lanksčią, negailestingą, dirbtiniu intelektu grindžiamą gynybą, kurią Vakarai turėtų studijuoti, atkartoti ir plėsti.

Pradėkite nuo Kovos su dezinformacija centro (CCD) – visą parą septynias dienas per savaitę veikiančio branduolių sintezės padalinio prie Ukrainos nacionalinio saugumo ir gynybos tarybos. Iki 2025 m. vidurio ji buvo katalogavusi 191 dirbtiniu intelektu grindžiamą Rusijos operaciją – nuo sintetinės vaizdakaitos V. Zelenskio vaizdo įrašų iki sintetinio pasiduodančių generolų garso. Naudojant mašininį mokymąsi, CCD ne tik reaguoja, bet ir prognozuoja. Jis nuskaito daugiau kaip 1 000 šaltinių keliomis kalbomis, pastebi sinchronizuotus botų antplūdžius ir išduoda „prebunks“, kol melas tampa virusinis.

Yra startuoliai, gimę bombų prieglaudose. "Osavul", pradėjęs kelias dienas iki invazijos, naudoja natūraliosios kalbos apdorojimą, kad sudarytų dezinformacijos tinklų "TikTok", "Telegram" ir "X" žemėlapius, per kelias sekundes įspėdamas žurnalistus. Ji užmaskavo didžiausią kada nors DI propagandą – „TikTok“ vaizdo įrašus septyniomis kalbomis, kuriuose Ukrainos vadovai kaltinami korupcija. „Mantis Analytics“ geolokuoja kovotojus iš nugrandytų vaizdų, demaskuodama Rusijos „faktų susilpninimą“ dėl karo nusikaltimų. Naudojamos net prieštaringos priemonės, pavyzdžiui, dirbtinis intelektas „Clearview“, – ne stebėjimui, o tam, kad būtų demaskuoti sintetinės sankaitos propagandistai, pavyzdžiui, 2023 m. netikras raginimas „Porošenko Zoom“, kuriuo siekta sukelti neramumus.

Tai nėra teoriška. Tai yra mūšio išbandymas. Ukrainos 2025 m. gegužės mėn. hakatone „DI Ukrainos atsigavimui“ buvo sukurtos priemonės, kurias dabar naudoja pirminės grandies žiniasklaida, kad patikrintų smūgius ir kovotų su kibernetiniais perspėjimais. „Kyiv Independent“ OSINT biuras naudoja dirbtinį intelektą milijonams atsvaros naratyvų kurti. Be to, 2024 m. atnaujintame Ukrainos įstatyme dėl kovos su dezinformacija saugumas derinamas su žodžio laisve – tai pavyzdys, kaip Vakarai vis dar diskutuoja komitetuose.

Kontrastas yra akivaizdus. Nors Briuselis rengia 400 puslapių reglamentus ir Silicio slėnio A / B testų filtrus, Ukraina veikia skubiai karo metu. Jis nelaukia konsensuso – kartoja, diegia, mokosi. Rusijai prisitaikius, Ukrainos pakraštys mažėja nuo kelių mėnesių iki kelių dienų. Bet jis niekada nenustoja judėti.

Vakarų klaida yra tai traktuoti kaip technologijų problemą – klaidą, kurią reikia ištaisyti auditais ir blokų grandine. Ukraina tai vertina kaip karą. O kare jūs nelaimėsite būdami sąžiningi. Jūs laimite būdami greitesni, protingesni ir negailestingesni tiesai.

Štai ką Vakarai turi pasiskolinti:

  • Sukurkite branduolių sintezės ląsteles, o ne darbo grupes. VKD modelis – vyriausybė, startuoliai, žiniasklaida, OSINT – turėtų būti atkartotas visose NATO sostinėse.
  • Ginkluoti prebunking. Ukraina inokuliuoja publiką, kol melas neišplito. JAV ir ES vis dar persekioja virusiškumą po to, kai tai įvyko.
  • Pasinaudokite prieštaringais įrankiais. "Clearview AI" turi trūkumų, tačiau Kijeve jis demaskuoja melagius. Tobulas yra išlikimo priešas.
  • Reguliuokite dantis, o ne popierių. 2024 m. Ukrainos teisės aktai verčia platformas veikti. SPA 6 straipsnis% baudos yra pradžia – jų vykdymas užtikrinamas.
  • Finansuokite priešakines linijas. Ukrainos startuoliams skiriamos dotacijos ir dotacijos. Dirbtinio intelekto saugai Vakaruose skirta milijardų eurų – peradresavimas 1% Kijevo patikrintoms laboratorijoms.

Bus nukopijuotas Rusijos vadovėlis – kintamo dydžio, pigus, neaptinkamas. Kitas tikslas nebus Ukraina. Tai bus jūsų rinkimai, jūsų atsakas į pandemiją, jūsų diskusijos klimato klausimais. Dirbtinis intelektas sustiprins garsiausią melagį, jei nepasimokysime iš šalies, kuri spoksojo į bedugnę ir pastatė veidrodį.

Ukraina neprašo gailesčio. Ji siūlo meistriškumo klasę. Vakarai turėtų nustoti reguliuoti ir dėstyti, pradėti klausytis ir veikti.

Šio tinklaraščio įrašo tekstas buvo paimtas iš EUalive Straipsnis galima rasti adresu https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/

Apie GEORGI GOTEV

Georgi Gotev yra žurnalistas, kurio specializacija – ES reikalai ir kuris dešimtajame dešimtmetyje dirbo Bulgarijoje, o nuo 2007 m. iki dabar – Briuselyje. 2025 m. jis įsteigė „EUalive“.

Programa „AI4Debunk“ finansuojama pagal programą „Europos horizontas“ (Dotacijos susitarimas Nr. 101135757) ir suburia daugiadalykius partnerius, siekiančius suteikti Europos piliečiams žinių, sistemų ir ypatingos svarbos priemonių, kurių reikia norint naršyti sudėtingoje šiandienos informacinėje aplinkoje.

Daugiau iš AI4Debunk

„EUalive“ surengė viešą diskusiją, kurios tikslas – išnagrinėti, kaip dirbtiniu intelektu grindžiamos priemonės gali padėti kovoti su melagingomis naujienomis ir dezinformacija.
Pastaraisiais metais dezinformacija nuo nereguliarių melagingų naujienų šūvių virto sistemine grėsme, kai naudojamasi kalbiniu manipuliavimu, žiniasklaidos mechanizmais, dirbtiniu intelektu ir tarpvalstybinėmis politinėmis strategijomis, siekiant:
2026 m. sausio 6 d. Rygoje surengta įvairių suinteresuotųjų subjektų diskusija „Dirbtinio intelekto naudojimas kovojant su dezinformacija“, kurią surengė Latvijos universitetas.