Liekot gabalus kopā: Kāpēc valodas, mediji unamp; MI dinamika un ES politika ir jānāk kopā, lai atmaskotu dezinformāciju

Pēdējos gados dezinformācija no neregulāriem viltus ziņu kadriem ir kļuvusi par sistēmisku apdraudējumu, kas izmanto lingvistiskas manipulācijas, mediju mehānismus, mākslīgo intelektu un transnacionālas politiskās stratēģijas, lai veidotu sabiedrisko domu un apdraudētu demokrātiskos procesus. Divi pētniecības virzieni, no kuriem viens attiecas uz dezinformācijas “mikro” mehānismiem, bet otrs — uz augsta līmeņa politikas un pārvaldības pasākumiem, bieži vien ir palikuši atsevišķi. Ir pienācis laiks tos apvienot.

Apdraudējuma anatomija: Valoda, mediju mehānismi un ģeneratīvais mākslīgais intelekts

Dezinformācijas kampaņas tiek īstenotas dažādos līmeņos, kas ir savstarpēji saistīti, padarot to ļoti efektīvu (D’Andrea et al., 2025a). Pirmkārt, valodas līmenī tiek izmantots manipulatīvs saturs, kas balstās uz emocijām un polarizāciju, ietekmējot uztveri, nevis informējot. Pēc tam tas tiek izplatīts caur dažādiem mediju un platformas mehānismiem, kuru pamatā ir lietotāju kognitīvie aizspriedumi, kas tiek piesaistīti sensacionālam un polarizējošam saturam. Turklāt ģeneratīvā MI parādīšanās padara šo problēmu īpaši svarīgu, jo ir iespējams radīt daudz ļoti ticama nepatiesa satura, ko ir ļoti grūti atklāt (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Tas, protams, ļoti būtiski ietekmē sabiedrisko sfēru, ietekmējot politiskos uzskatus un lēmumu pieņemšanas procesus.

Mākslīgā intelekta nozīme: Kā risks un kā rīks 

Mākslīgais intelekts ir abpusējs zobens. No vienas puses, ģeneratīvais mākslīgais intelekts veicina plaša mēroga dezinformācijas kampaņas (Shoaib et al., 2023; Feuerriegel et al., 2023). No otras puses, MI rīki var atklāt, izsekot un apkarot manipulatīvu saturu, ja tos izmanto atbildīgi (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Metodes ietver starpvalodu atklāšanu, tīkla analīzi vai automatizētus faktu pārbaudes kanālus (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Turklāt izskaidrojamas MI sistēmas var palīdzēt atklāt dziļviltojumus un analizēt tīkla difūzijas modeļus (Curtis et al., 2025; Truică & Apostol, 2022).

Kāpēc ar politiku vien nepietiek — bet politika joprojām ir būtiska

Politikas ziņā Eiropas Savienība ir ieviesusi tādas programmas kā Eiropas Digitālo mediju observatorija (EDMO) un Digitālo pakalpojumu akts, lai palielinātu medijpratību, pārskatatbildību un pārredzamību starp tās dalībvalstīm (Eiropas Komisija, 2024. gads; Sánchez Gonzales et al., 2024; D’Andrea et al., 2025b). Sadarbības tīkli, kas ietver faktu pārbaudītājus, žurnālistus un akadēmiskās iestādes, ir neatņemama sastāvdaļa, lai to līdzsvarotu plašā mērogā (Frau‑Meigs et al., 2025). Tās parasti ir iniciatīvas, kas reaģē uz problēmu un tādējādi kontrolē dezinformācijas sekas, nevēršoties pret tās kognitīvajām, lingvistiskajām vai algoritmiskajām saknēm (Leite et al., 2025). Politika, kas tiek veidota bez pētniecības atbalsta tādās jomās kā emocionālā ierāmēšana, pārliecinošas stratēģijas un MI virzīta pastiprināšana, var būt pārāk plaša vai ‌‍‌scattered.

Mikrolīmeņa un makrolīmeņa apvienojums virzībā uz visaptverošu stratēģiju

Dezinformācijas efektīva mazināšana ir jārisina gan mikrolīmenī, gan makrolīmenī:

  • Mikrolīmeņa modrība: iedzīvotājiem ir jāspēj pamanīt manipulatīvus vēstījumus, emocionāli strukturētu un/vai algoritmiski pastiprinātu saturu (Arribas et al., 2025).
  • Makrolīmeņa pārvaldība: tam būtu vajadzīgs tiesiskais regulējums, kas nodrošina pārredzamību, platformu pārskatatbildību, piekļuvi datiem, lai varētu veikt neatkarīgu analīzi, un vispārējo koordināciju starp ES dalībvalstīm un faktu pārbaudes tīkliem (Pilati & Venturini, 2025; Eiropas Komisija, 2024).

Šiem līmeņiem ir jābūt sarunā vienam ar otru: politikas izstrādē būtu jāņem vērā pētījumi par to, kas padara dezinformāciju pārliecinošu, un pētniecība būtu jāpaplašina, izmantojot struktūrpolitikas instrumentus.

Ceļā uz demokrātisku noturību: Ko mums vajadzētu darīt?

Rodas trīs savstarpēji saistītas prioritātes:

  1. veicināt starpdisciplīnu pētniecību, lai palīdzētu identificēt jaunu dezinformācijas taktiku, paņēmienus un procedūras, kas pastāvīgi attīstās, lai uzlabotu atklāšanu dažādās valodās, kultūrās un platformās (D’Andrea et al., 2025a; Arribas et al., 2025).
  2. apņemties veicināt plaša mēroga medijpratību un kritisko domāšanu, integrējot to skolās, kopienas programmās un sabiedriskās kampaņās (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
  3. Ieviest un īstenot strukturālus aizsardzības pasākumus, piemēram, pienācīgas pārredzamības pienākumus tiešsaistes platformām, krīzes reaģēšanas mehānismus, MI radīta satura marķēšanu un uz sadarbību balstītu ES mēroga pārraudzību (Eiropas Komisija, 2024. gads; Pilati & Venturini, 2025).

Secinājums

Dezinformācija nevar tikt iznīcināta tikai ar pētniecību vai regulējumu; būtiska ir holistiskāka pieeja, kas gūst ieskatu valodniecībā, mākslīgajā intelektā, mediju pētījumos un politikā. Tikai ar šo integrāciju mikroizpratnes līmenī par pārliecināšanu ar makropārvaldību un regulatīviem pasākumiem sabiedrība var veidot noturību, lai aizsargātu demokrātiskos procesus (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).

Atsauces

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Preventīvas stratēģijas dezinformācijas apkarošanai: Pētījums par digitālās un informācijas pratības darbībām, ko vada faktu pārbaudes organizācijas. Open Research Europe, 5, 122. lpp.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Patiesība: Atvērta avota AI faktu pārbaudes sistēma. arXiv preprint arXiv:2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Lingvistisks ieskats, mediju mehānismi un MI loma dezinformācijas izplatīšanā un ietekmē. Informācijas, komunikācijas un ētikas žurnāls sabiedrībā.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Politikas pārskatīšana: dezinformācijas apkarošana digitālajā laikmetā — politika un iniciatīvas demokrātijas aizsardzībai Eiropā. Informācijas trūkums, 30. panta 1. punkts, 82.-91. pants.

Eiropas Komisija. (2024). Patiess vai nepatiess? Kā aizsargāties pret dezinformāciju? Komisijas ziņas. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025). Autentiskuma atšifrēšana MI laikmetā: kā MI radīti dezinformācijas attēli un MI atklāšanas rīki ietekmē spriedumus par autentiskumu. AI & SOCIETY, 1.–12. lpp.

Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Pētniecība var palīdzēt apkarot MI radītu dezinformāciju. Cilvēka daba, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Cīņa pret dezinformāciju, izmantojot medijpratību: No pašreizējās prakses līdz politikas veidošanai Eiropā. InMedia. Francijas Plašsaziņas līdzekļu pētījumu žurnāls, (10).

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025. gada maijs). starpnozaru pētījums par pārliecināšanas metožu izmantošanu dezinformācijai tiešsaistē. ACM saistītajos procesos par 2025. gada tīmekļa konferenci (1100.–1103. lpp.).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Žurnālistu priekšstati par mākslīgā intelekta un dezinformācijas riskiem. Žurnālistika un plašsaziņas līdzekļi, 6. panta 3. punkts, 133. pants.

Pilati, F., & Venturini, T. (2025). Mākslīgā intelekta izmantošana dezinformācijas apkarošanā: Pasaules mēroga (tīmekļa) kartēšana. Politisko zinātņu robežas, 7, 1517726.

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Mākslīgā intelekta un dezinformācijas pratības programmas, ko izmanto Eiropas faktu pārbaudītāji. Catalan Journal of Communication & Kultūras studijas, 16(2), 237-255.

Shukla, A. K., & Tripathi, S. (2024). Mākslīgā intelekta radīta maldinoša informācija 2024. vēlēšanu gadā: Eiropas Savienības pasākumi. Politisko zinātņu robežas, 6, 1451601.

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023. gada novembris). Dziļviltojumi, maldinoša informācija un dezinformācija progresīvā MI, ģeneratīvā MI un lielu MI modeļu laikmetā. 2023. gadā notika starptautiska konference par datoriem un lietojumprogrammām (ICCA) (1.–7. lpp.). IEEE.

Truică, C. O., & Apostol, E. S. (2022). Misrobærta: transformatori pretstatā maldinošai informācijai. Matemātika, 10(4), 569.

Lejupielādēt pilnu rakstu pdf formātā šeit.

Par Alessia D’Andrea

IRPPS pētnieks. Viņas pētījumi ir vērsti uz tīmekļa tehnoloģijām, cilvēka un datora mijiedarbību, sociālajām zinātnēm, mārketingu/virtuālo uzņēmējdarbību un veselību.

Par Arianna D’Ulizia

IRPPS pētnieks. Viņas pētnieciskās intereses ietver sociālo skaitļošanu un cilvēka un datora mijiedarbību, jo īpaši dabisko un multimodālo valodas apstrādi un uz lietotāju orientētu mijiedarbības dizainu .

Noskatieties šo institucionālo video, kurā izklāstīts AI4Debunk redzējums

Vairāk no AI4Debunk

AI4Debunk mini simpozijs: Mākslīgais intelekts un dezinformācija — tehnoloģijas, medijpratība un politika pētīs problēmas un iespējas, ko mākslīgais intelekts sniedz cīņā pret dezinformāciju.
EUalive organizēja publisku diskusiju, kuras mērķis bija izpētīt, kā ar MI darbināmi rīki var atbalstīt centienus apkarot viltus ziņas un dezinformāciju.
2026. gada 6. janvārī Rīgā notika Latvijas Universitātes organizēta daudzu ieinteresēto personu diskusija “Mākslīgā intelekta izmantošana dezinformācijas apkarošanā”.