Kappaleiden yhdistäminen: Miksi kielellistä, mediaa ja ampeeria, tekoälydynamiikkaa ja EU:n politiikkaa on yhdistettävä disinformaation kitkemiseksi

Viime vuosina disinformaatio on muuttunut satunnaisista valeuutisista systeemiseksi uhaksi, jossa käytetään kielellistä manipulointia, mediamekanismeja, tekoälyä ja ylikansallisia poliittisia strategioita yleisen mielipiteen muodostamiseksi ja demokraattisten prosessien heikentämiseksi. Kaksi tutkimuksen osa-aluetta, joista toinen koskee disinformaation ”mikrotason” mekanismeja ja toinen korkean tason poliittisia ja hallinnollisia toimia, ovat usein pysyneet erillisinä. On aika saattaa heidät yhteen.

Uhkauksen anatomia: Kieli, mediamekanismit ja generatiivinen tekoäly

Disinformaatiokampanjoita toteutetaan eri tasoilla, jotka liittyvät toisiinsa, mikä tekee niistä erittäin tehokkaita (D’Andrea et al., 2025a). Ensinnäkin kielen tasolla käytetään manipuloivaa sisältöä, joka perustuu tunteisiin ja polarisaatioon, joka vaikuttaa havaintoihin eikä tiedottamiseen. Se leviää sitten median ja alustan eri mekanismien kautta, jotka perustuvat sensaatiomaiseen ja polarisoivaan sisältöön vetoavien käyttäjien kognitiivisiin ennakkoluuloihin. Lisäksi generatiivisen tekoälyn esiintyminen tekee tästä ongelmasta erityisen tärkeän, koska on mahdollista tuottaa paljon erittäin uskottavaa väärää sisältöä, jota on hyvin vaikea havaita (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Tällä on tietenkin hyvin merkittäviä vaikutuksia julkiseen tilaan, ja se vaikuttaa poliittisiin mielipiteisiin ja päätöksentekoprosesseihin.

Tekoälyn rooli: Riskinä ja työkaluna 

Tekoäly on kaksiteräinen miekka. Yhtäältä generatiivinen tekoäly helpottaa laajamittaisia disinformaatiokampanjoita (Shoaib et al., 2023; Feuerriegel et al., 2023). Toisaalta tekoälyvälineet voivat havaita, jäljittää ja torjua manipuloivaa sisältöä, jos niitä käytetään vastuullisella tavalla (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Tekniikoita ovat muun muassa kieltenvälinen havaitseminen, verkkoanalyysi tai automaattiset faktantarkistusputket (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Lisäksi selitettävissä olevat tekoälyjärjestelmät voivat edistää syväväärennösten havaitsemista ja verkon leviämismallien analysointia (Curtis et al., 2025; Truică & Apostol, 2022).

Miksi politiikka ei yksin riitä – mutta politiikka on edelleen olennaisen tärkeää

Politiikan osalta Euroopan unioni on ottanut käyttöön ohjelmia, kuten eurooppalaisen digitaalisen median seurantakeskuksen (EDMO) ja digitaalisia palveluja koskevan säädöksen, lisätäkseen medialukutaitoa, vastuuvelvollisuutta ja avoimuutta jäsenvaltioidensa keskuudessa (Euroopan komissio, 2024; Sánchez Gonzales et al., 2024; D’Andrea et al., 2025b). Yhteistyöverkostot, joihin kuuluu faktantarkistajia, toimittajia ja akateemisia laitoksia, ovat olennainen osa tämän laajamittaista tasapainottamista (Frau‑Meigs et al., 2025). Ne ovat yleensä aloitteita, joilla vastataan ongelmaan ja siten hallitaan disinformaation seurauksia puuttumatta sen kognitiivisiin, kielellisiin tai algoritmisiin juuriin (Leite et al., 2025). Politiikat, jotka muodostetaan ilman, että niitä tuetaan tutkimuksella sellaisilla aloilla kuin emotionaalinen kehystäminen, vakuuttavat strategiat ja tekoälypohjainen vahvistus, ovat vaarassa olla liian laajoja tai ‌ ‌scattered.

Mikro- ja makrotason yhdistäminen kohti kokonaisvaltaista strategiaa

Disinformaation tehokkaaseen lieventämiseen on puututtava sekä mikro- että makrotasolla:

  • Mikrotason valppaustila: kansalaisten on kyettävä havaitsemaan manipuloivia narratiiveja, emotionaalisesti kehystettyä ja/tai algoritmisesti vahvistettua sisältöä (Arribas et al., 2025).
  • Makrotason hallinto: katsoo, että tämä edellyttäisi sääntelykehyksiä, joissa säädetään avoimuudesta, alustojen vastuuvelvollisuudesta, tietojen saatavuudesta riippumattoman analyysin mahdollistamiseksi sekä yleisestä koordinoinnista EU:n jäsenvaltioiden ja faktantarkistusverkostojen välillä (Pilati & Venturini, 2025; Euroopan komissio, 2024).

Nämä tasot on keskusteltava keskenään: Politiikan suunnittelussa olisi hyödynnettävä tutkimusta siitä, mikä tekee disinformaatiosta vakuuttavaa, ja tutkimusta olisi laajennettava rakennepolitiikan välineiden avulla.

Kohti demokraattista selviytymiskykyä: Mitä meidän pitäisi tehdä?

Esiin nousee kolme toisiinsa liittyvää painopistettä:

  1. Kannustetaan tieteidenvälistä tutkimusta sellaisten disinformaation uusien taktiikoiden, tekniikoiden ja menettelyjen tunnistamiseksi, jotka kehittyvät jatkuvasti ja parantavat havaitsemista eri kielillä, kulttuureissa ja foorumeilla (D’Andrea et al., 2025a; Arribas et al., 2025).
  2. Sitoudutaan laajamittaiseen medialukutaitoon ja kriittiseen ajatteluun sisällyttämällä se kouluihin, yhteisöohjelmiin ja julkisiin kampanjoihin (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
  3. Otetaan käyttöön ja pannaan täytäntöön rakenteellisia suojatoimia, kuten verkkoalustojen avoimuusvelvoitteet, kriisimekanismit, tekoälyn tuottaman sisällön merkinnät ja yhteistyöhön perustuva EU:n laajuinen valvonta (Euroopan komissio, 2024; Pilati & Venturini, 2025).

Päätelmä

Disinformaatiota ei voida torjua pelkästään tutkimuksella tai sääntelyllä. On olennaisen tärkeää omaksua kokonaisvaltaisempi lähestymistapa, joka perustuu kielitieteeseen, tekoälyyn, mediatutkimuksiin ja politiikkaan. Tämä tapahtuu vain siten, että mikrotason ymmärrys suostuttelusta makrotason hallinto- ja sääntelytoimenpiteiden avulla voi parantaa yhteiskuntien kykyä turvata demokraattiset prosessit (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).

Viitteet

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Disinformaation torjuntastrategiat: Tutkimus digitaalisesta lukutaidosta ja informaatiolukutaidosta faktantarkistusorganisaatioiden johdolla. Open Research Europe, 5, 122.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Todenperäisyys: Avoimen lähdekoodin tekoälyn faktantarkistusjärjestelmä. arXiv preprint arXiv:2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Kielelliset näkemykset, mediamekanismit ja tekoälyn rooli disinformaation levittämisessä ja vaikutuksessa. Journal of Information, Communication and Ethics in Society Näytä tarkat tiedot

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Politiikan uudelleentarkastelu: disinformaation torjunta digitaalisella aikakaudella – Politiikat ja aloitteet demokratian turvaamiseksi Euroopassa. Tiedot Polity, 30(1), 82-91.

Euroopan komissio. (2024). Totta vai väärää? Miten puolustautua disinformaatiota vastaan? Komission uutiset. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025). Aitous tekoälyn aikakaudella: miten tekoälyn tuottamat disinformaatiokuvat ja tekoälyn havaitsemisvälineet vaikuttavat aitoutta koskeviin arviointeihin. AI & Yhteiskunta, 1-12.

Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Tutkimus voi auttaa torjumaan tekoälyn tuottamaa disinformaatiota. Luonto Ihmisen käyttäytyminen, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Disinformaation torjunta medialukutaidon avulla: Nykyisistä käytännöistä poliittiseen päätöksentekoon Euroopassa. InMediassa. The French Journal of Media Studies, (10) Näytä tarkat tiedot

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, toukokuu). Eri alojen välinen tutkimus suostuttelutekniikoiden käytöstä verkossa olevassa disinformaatiossa. Asiassa Companion Proceedings of the ACM on Web Conference 2025 (s. 1100-1103).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Toimittajien käsitykset tekoälyn ja disinformaation riskeistä. Journalismi ja media, 6(3), 133.

Pilati, F., & Venturini, T. (2025). Tekoälyn käyttö disinformaation torjunnassa: Maailmanlaajuinen (verkko)kartoitus. Frontiers in Political Science, 7, 1517726. (englanniksi)

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Eurooppalaisten faktantarkistajien käyttämät tekoäly- ja disinformaatiolukutaito-ohjelmat. Catalan Journal of Communication & Cultural Studies, 16(2), 237-255.

Shukla, A. K., & Tripathi, S. (2024). Tekoälyn tuottama väärä tieto vaalivuonna 2024: Euroopan unionin toimenpiteet. Frontiers in Political Science, 6, 1451601. (englanniksi)

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, marraskuu). Syväväärennökset, väärä tieto ja disinformaatio edelläkävijätekoälyn, generatiivisen tekoälyn ja suurten tekoälymallien aikakaudella. Vuonna 2023 järjestetyssä tietokoneita ja sovelluksia käsitelleessä kansainvälisessä konferenssissa (ICCA) (s. 1–7). Sähkö- ja elektroniikkalaiteromu.

Truică, C. O., & Apostol, E. S. (2022). Misrobærta: Muuntajat vastaan väärät tiedot. Matematiikka, 10(4), 569.

Lataa koko artikkeli pdf-muodossa tässä.

Tietoja kohteesta Alessia D’Andrea

IRPPS-tutkija. Hänen tutkimuksensa keskittyy web-teknologioihin, ihmisen ja tietokoneen vuorovaikutukseen, yhteiskuntatieteisiin, markkinointiin / virtuaaliseen liiketoimintaan ja terveyteen.

Tietoja kohteesta Arianna D’Ulizia

IRPPS-tutkija. Hänen tutkimusintressejään ovat sosiaalinen laskenta ja ihmisen ja tietokoneen vuorovaikutus, erityisesti luonnollisen ja multimodaalisen kielen käsittely ja käyttäjäkeskeinen vuorovaikutussuunnittelu .

Katso tämä institutionaalinen video, jossa esitellään AI4Debunkin visio

Lisää AI4Debunk

EUalive järjesti julkisen keskustelun, jonka tarkoituksena oli selvittää, miten tekoälyyn perustuvilla välineillä voidaan tukea toimia valeuutisten ja disinformaation torjumiseksi.
Riiassa järjestettiin 6. tammikuuta 2026 monen sidosryhmän keskustelu aiheesta ”Tekoälyn käyttö disinformaation torjunnassa”. Keskustelun järjesti Latvian yliopisto.
Brysselin lehdistöklubissa järjestettiin 6. marraskuuta 2025 AI4DEBUNKin sidosryhmien välinen pyöreän pöydän kokous, johon osallistui yli 20 asiantuntijaa.