Pilot4DEV isännöi 5. syyskuuta lehdistöklubilla Brysselissä monen sidosryhmän kokousta, joka kokosi yhteen johtavia asiantuntijoita, tutkijoita ja alan toimijoita vaihtamaan tietoa, keskustelemaan strategioista valeuutisten torjumiseksi ja tutkimaan, miten tekoälyvälineet voidaan suunnitella vastaamaan tehokkaasti näihin haasteisiin.
Tapahtumassa AI4Debunk-projekti yhdessä käynnissä olevan online-kyselyn alustavien havaintojen kanssa (🇬🇧englanti, 🇫🇷ranska, 🇩🇪saksa, 🇳🇴norjalainen, 🇬🇷kreikka, 🇱🇻latvia, 🇺🇦ukrainalainen) esiteltiin. Tämä loi perustan vilkkaalle pyöreän pöydän keskustelulle, jonka pääkohdat esitetään yksityiskohtaisesti jäljempänä.
1. Projektien työkalujen suunnittelu
Keskustelussa korostettiin disinformaation yhteiskunnallisia näkökohtia ja tarkasteltiin myös yksilöllisiä psykologisia tekijöitä, jotka tekevät ihmisestä haavoittuvan manipuloidulle tiedolle verkossa. Ehdotettiin, että nämä psykologiset tekijät otettaisiin huomioon suunniteltaessa hankkeen tekoälyvälineitä disinformaation torjumiseksi.
Osallistujat ilmaisivat kiinnostuksensa välineiden suunnitteluun ja kyseenalaistivat neljän erityisen rajapinnan – verkkoliitännäisen, disinfopedian, sovelluksen ja AR/VR:n – valinnan ja sen, miten ne vastaavat hankkeen tavoitteita. Huolta herätti sen varmistaminen, että välineet ovat suuren yleisön saatavilla, erityisesti niiden, jotka voisivat hyötyä niistä eniten, kuten vanhusten tai vähemmän teknisten taitojen omaavien henkilöiden. Vaikka oli jonkin verran skeptisyyttä siitä, voisivatko nämä ryhmät ottaa helposti käyttöön sovelluksia tai AR / VR-järjestelmiä, yleinen yksimielisyys oli, että työkalujen, erityisesti sovelluksen, on oltava käyttäjäystävällisiä.
Keskustelun keskeisenä painopisteenä oli luottamuksen rakentaminen uskottavana lähteenä, jota osallistujat pitivät ratkaisevan tärkeänä välineiden laajamittaisen käytön edistämiseksi. Useat sidosryhmät tunnustivat luottamuksen luomisen haasteen jopa tunnustetuille faktantarkistajille. Erityisesti haavoittuvassa asemassa olevien henkilöiden katsottiin epätodennäköisemmin luottavan tekoälypohjaisiin faktantarkistusvälineisiin, kun taas asiantuntevammat käyttäjät saattaisivat olla halukkaita kokeilemaan niitä.
2. Disinformaatio vs. väärä tieto
Osallistujat tiedustelivat myös disinformaation ja väärän tiedon määritelmistä. Tämä johti laajempaan keskusteluun valeuutisten käsitteestä ja sen eri sävyistä: väärien tietojen kirjo vaihtelee tahattomasta väärästä tiedosta tahalliseen disinformaatioon.
Informaation kehystäminen, erityisesti emotionaalisen kielenkäytön kautta, nähtiin tekijänä, joka vaikuttaa siihen, miten lukijat tulkitsevat sisältöä. Jotkut huomauttivat, että on jo olemassa tekoälyjärjestelmiä, jotka voivat arvioida artikkeleiden emotionaalista sävyä, mutta varovaisuutta ilmaistiin erityyppisten väärien tietojen liiallisen yleistymisen riskistä.
Totuuden määrittämisen monimutkaisuuden vuoksi faktantarkistajat luottavat edelleen inhimilliseen analyysiin – lähestymistapa, joka on myös keskeinen disinfopediallemme. Keskusteltiin siitä, olisiko vakiintuneille tiedotusvälineille ilmoitettava, kun ne julkaisevat vääriä tietoja, ja jotkut kannattivat toimittajien ja faktantarkistajien välisen yhteistyön lisäämistä uutisten tarkkuuden varmistamiseksi. Toimittajien avoimuutta virheiden tekemisessä pidettiin keskeisenä tekijänä kansalaisten luottamuksen säilyttämisessä.
3. Haitalliset toimijat ja ulkomainen sekaantuminen
Tämän jälkeen keskustelu siirtyi vihamielisten toimijoiden rooliin disinformaation levittämisessä. Näiden toimijoiden tunnistaminen ja tällaisten uhkien alkuperän jäljittäminen on usein uskomattoman vaikeaa. DisinfoLab-tiimi jakoi näkemyksiä laajasta tutkimuksestaan tästä aiheesta ja viittasi julkaistuihin havaintoihinsa, jotka ovat saatavilla osoitteessa tämä raportti.
Osallistujat olivat uteliaita omista kokemuksistamme haitallisten toimijoiden jäljittämisestä. Tapaustutkimuksemme perusteella korostimme, miten Venäjän disinformaatiotaktiikat ovat osoittautuneet erityisen mukautuviksi. Esimerkiksi heidän strategiansa TikTokin kaltaisilla alustoilla keskittyy nuorempien, liberaalien yleisöjen houkuttelemiseen houkuttelevalla sisällöllä ja propagandan asteittaiseen käyttöönottoon luottamuksen rakentamisen jälkeen. Tämä lähestymistapa disinformaation sisällyttämiseksi kertomuksiin, jotka resonoivat tiettyjen demografisten tietojen kanssa, on kasvava uhka erityisesti alustoilla, joilla disinformaation valvonta on heikompaa, kuten TikTok, verrattuna muihin alustoihin, kuten Metaan tai X:ään (aiemmin Twitter).
4. Tekoäly ja kriittinen ajattelu
Toinen tärkeä esille otettu seikka oli tarve välttää sokeaa tukeutumista tekoälyyn valeuutisten torjunnassa ja sen sijaan kannustaa uteliaisuuteen ja ymmärrykseen siitä, miten tekoälyjärjestelmät toimivat.
Jotkut osallistujat peräänkuuluttivat aloitteita tekoälyn ja suurten kielimallien ”mystifioinnin purkamiseksi” ja väittivät, että ihmiset ovat usein passiivisia tekoälyn kanssa ymmärtämättä sen taustalla olevia prosesseja. He ehdottivat, että koneoppimista koskevan uteliaisuuden edistäminen varhaisesta iästä alkaen voisi auttaa tekemään näistä välineistä helpommin saatavilla olevia suurelle yleisölle.
Tämä on itse asiassa osa perusteluja sarjakuvan käyttöönotolle koulutusvälineenä hankkeessamme, mikä herätti keskustelua siitä, voisiko tekoälyn roolia disinformaation torjunnassa koskeva valistus johtaa näiden välineiden laajempaan käyttöönottoon pelkästään ammattilaisten ulkopuolella.
Istunnosta saadut oivallukset auttavat muokkaamaan seuraavia vaiheitamme. AI4Debunk-hankkeen edetessä odotamme innolla yhteistyön jatkamista sidosryhmien kanssa ja työkalujemme hiomista.
Olemme edelleen sitoutuneet edistämään vuoropuhelua ja innovointia disinformaation torjunnassa ja tekemään yhteistyötä tietoisemman ja selviytymiskykyisemmän yhteiskunnan rakentamiseksi.




