Pilot4DEV je 5. septembra gostil večdeležniško srečanje v tiskovnem klubu v Bruslju, na katerem so se zbrali vodilni strokovnjaki, raziskovalci in strokovni delavci, da bi izmenjali znanje, razpravljali o strategijah za boj proti lažnim novicam in preučili, kako je mogoče orodja umetne inteligence zasnovati za učinkovito reševanje teh izzivov.
Na dogodku je projekt AI4Debunk skupaj z začetnimi ugotovitvami naše tekoče spletne ankete (🇬🇧angleščini, 🇫🇷francoščini, 🇩🇪nemščini, 🇳🇴norveški, 🇬🇷grščini, 🇱🇻latvijščini, 🇺🇦Ukrajinski) so bili predstavljeni. To je bilo izhodišče za živahno okroglo mizo, katere glavni poudarki so podrobno opisani v nadaljevanju.
1. Oblikovanje orodij za projekte
V razpravi niso bili poudarjeni le družbeni vidiki dezinformacij, temveč so bili preučeni tudi posamezni psihološki dejavniki, zaradi katerih je nekdo ranljiv za manipulirane informacije na spletu. Predlagano je bilo, da se ti psihološki elementi upoštevajo pri oblikovanju orodij umetne inteligence projekta, namenjenih boju proti dezinformacijam.
Udeleženci so izrazili zanimanje za zasnovo orodij in podvomili v izbiro štirih posebnih vmesnikov (spletni vtičnik, Disinfopedia, aplikacija in AR/VR) ter njihovo usklajenost s cilji projekta. Izraženi so bili pomisleki glede zagotavljanja dostopnosti orodij splošni javnosti, zlasti tistim, ki bi od njih lahko imeli največ koristi, kot so starejši ali manj tehnološko podkovani posamezniki. Čeprav je bilo nekaj skepticizma glede tega, ali bi te skupine zlahka sprejele aplikacije ali sisteme AR / VR, je bilo splošno soglasje, da morajo biti orodja, zlasti aplikacija, uporabniku prijazna.
Glavni poudarek razprave je bil na krepitvi zaupanja kot verodostojnega vira, ki so ga udeleženci opredelili kot ključnega za spodbujanje široke uporabe orodij. Več deležnikov je priznalo izziv vzpostavitve zaupanja, tudi za priznane preverjevalce dejstev. Zlasti ranljivi posamezniki so menili, da je manj verjetno, da bodo zaupali orodjem za preverjanje dejstev, ki temeljijo na umetni inteligenci, medtem ko bi bili bolj obveščeni uporabniki morda pripravljeni eksperimentirati z njimi.
2. Dezinformacije proti napačnim informacijam
Udeleženci so se pozanimali tudi o naših opredelitvah „dezinformacij“ in „napačnih informacij“. To je privedlo do širše razprave o konceptu lažnih novic in njihovih različnih odtenkih: obstajajo napačne informacije o spektru, ki sega od nenamernih napačnih informacij do namernih dezinformacij.
Način, kako se informacije oblikujejo, zlasti z uporabo čustvenega jezika, je bil obravnavan kot dejavnik, ki vpliva na to, kako bralci razlagajo vsebino. Nekateri so opozorili, da že obstajajo sistemi umetne inteligence, ki lahko ocenijo čustveni ton člankov, vendar je bila izražena previdnost glede tveganja prekomerne posplošitve različnih vrst napačnih informacij.
Glede na kompleksnost ugotavljanja resnice se preverjevalci dejstev še naprej zanašajo na človeško analizo – pristop, ki je tudi osrednjega pomena za našo Disinfopedio. Razpravljalo se je o tem, ali bi bilo treba uveljavljene medijske hiše obvestiti, ko objavljajo nepravilne informacije, nekateri pa so se zavzemali za večje sodelovanje med novinarji in preverjevalci dejstev, da bi zagotovili točnost novic. Preglednost novinarjev, kadar delajo napake, je bila ocenjena kot ključna za ohranjanje zaupanja javnosti.
3. Zlonamerni akterji in tuje vmešavanje
Razprava se je nato preusmerila na vlogo zlonamernih akterjev pri širjenju dezinformacij. Prepoznavanje teh akterjev in sledenje izvoru takih groženj sta pogosto izjemno težavna. Ekipa DisinfoLab je delila vpoglede iz svojih obsežnih raziskav na to temo, pri čemer je opozorila na svoje objavljene ugotovitve, ki so na voljo v to poročilo.
Udeleženci so bili radovedni o naših izkušnjah pri sledenju zlonamernim igralcem. Sodišče je na podlagi svoje študije primera poudarilo, da so se ruske taktike dezinformiranja izkazale za posebej prilagodljive. Njihova strategija na platformah, kot je TikTok, se na primer osredotoča na privabljanje mlajšega, liberalnega občinstva z zanimivimi vsebinami in postopno uvajanje propagande po prvi vzpostavitvi zaupanja. Ta pristop vključevanja dezinformacij v diskurze, ki resonirajo s specifičnimi demografskimi dejavniki, predstavlja vse večjo grožnjo, zlasti na platformah s šibkejšim nadzorom dezinformacij, kot je TikTok, v primerjavi z drugimi platformami, kot sta Meta ali X (prej Twitter).
4. Umetna inteligenca in kritično razmišljanje
Druga pomembna točka, ki je bila izpostavljena, je bila, da se je treba pri boju proti lažnim novicam izogibati slepo zanašanju na umetno inteligenco ter namesto tega spodbujati radovednost in razumevanje delovanja umetnointeligenčnih sistemov.
Nekateri udeleženci so pozvali k pobudam za „demistifikacijo umetne inteligence“ in velikih jezikovnih modelov, pri čemer so trdili, da ljudje pogosto pasivno sodelujejo z umetno inteligenco, ne da bi razumeli njene temeljne procese. Predlagali so, da bi spodbujanje radovednosti o strojnem učenju od zgodnjega otroštva lahko pripomoglo k temu, da bi bila ta orodja bolj dostopna širši javnosti.
To je dejansko del utemeljitve za uvedbo stripa kot izobraževalnega orodja v naš projekt, kar je sprožilo razpravo o tem, ali bi lahko izobraževanje ljudi o vlogi umetne inteligence v boju proti dezinformacijam privedlo do širšega sprejetja teh orodij, ki ne bi zajemalo le strokovnjakov.
Ugotovitve, pridobljene na tej seji, bodo pomagale oblikovati naše naslednje korake. Z napredovanjem projekta AI4Debunk se veselimo nadaljevanja teh skupnih prizadevanj z deležniki in izpopolnjevanja naših orodij.
Še naprej smo zavezani spodbujanju nadaljnjega dialoga in inovacij v boju proti dezinformacijam ter si skupaj prizadevamo za bolj informirano in odporno družbo.




