Pilot4DEV uspořádal 5. září v tiskovém klubu v Bruselu setkání mnoha zúčastněných stran, na němž se setkali přední odborníci, výzkumní pracovníci a odborníci z praxe, aby si vyměnili znalosti, diskutovali o strategiích boje proti falešným zprávám a prozkoumali, jak lze nástroje umělé inteligence navrhnout tak, aby tyto výzvy účinně řešily.
Na akci projekt AI4Debunk spolu s počátečními zjištěními našeho probíhajícího online průzkumu (🇬🇧angličtina, 🇫🇷francouzština, 🇩🇪němčina, 🇳🇴norský, 🇬🇷řečtina, 🇱🇻lotyština, 🇺🇦ukrajinská) byly prezentovány. To připravilo půdu pro živou diskusi u kulatého stolu, jejíž hlavní body jsou podrobně popsány níže.
1. Návrh projektových nástrojů
Diskuse nejen zdůraznila společenské aspekty dezinformací, ale také zkoumala jednotlivé psychologické faktory, které činí někoho zranitelným vůči manipulovaným informacím online. Bylo navrženo, aby tyto psychologické prvky byly zohledněny při navrhování nástrojů umělé inteligence projektu zaměřených na boj proti dezinformacím.
Účastníci vyjádřili zájem o návrh nástrojů a zpochybnili výběr čtyř konkrétních rozhraní – Web plug-in, Disinfopedia, App a AR/VR – a to, jak jsou v souladu s cíli projektu. Byly vyjádřeny obavy ohledně zajištění toho, aby nástroje byly přístupné široké veřejnosti, zejména těm, kteří by z nich mohli mít největší prospěch, jako jsou starší osoby nebo osoby méně zdatné v oblasti technologií. Ačkoli panovala určitá skepse ohledně toho, zda by tyto skupiny snadno přijaly aplikace nebo systémy AR / VR, obecný konsensus byl, že nástroje, zejména aplikace, musí být uživatelsky přívětivé.
Diskuse se zaměřila především na budování důvěry jako důvěryhodného zdroje, který účastníci označili za klíčový pro podporu širokého využívání těchto nástrojů. Několik zúčastněných stran uznalo výzvu vytvoření důvěry, a to i pro uznávané ověřovatele faktů. Zejména zranitelní jedinci byli považováni za méně pravděpodobné, že budou důvěřovat nástrojům ověřování faktů založeným na umělé inteligenci, zatímco informovanější uživatelé by s nimi mohli být ochotni experimentovat.
2. Dezinformace vs. dezinformace
Účastníci se rovněž dotázali na naše definice „dezinformací“ a „dezinformací“. To vedlo k širší diskusi o konceptu falešných zpráv a jeho různých odstínech: existují nepravdivé informace o spektru od neúmyslných dezinformací až po záměrné dezinformace.
Způsob, jakým jsou informace zarámovány, zejména pomocí emočního jazyka, byl vnímán jako faktor, který ovlivňuje způsob, jakým čtenáři interpretují obsah. Někteří poznamenali, že již existují systémy umělé inteligence, které mohou posoudit emocionální tón článků, ale byla vyjádřena opatrnost ohledně rizika nadměrného zobecnění různých typů nepravdivých informací.
Vzhledem ke složitosti určování pravdy se ověřovatelé faktů i nadále spoléhají na lidskou analýzu – což je přístup, který je rovněž ústředním prvkem naší dezinfopedie. Diskutovalo se o tom, zda by zavedené sdělovací prostředky měly být informovány, když zveřejňují nesprávné informace, přičemž někteří obhajovali větší spolupráci mezi novináři a ověřovateli faktů, aby byla zajištěna přesnost zpráv. Transparentnost ze strany novinářů, když dělají chyby, byla považována za klíčovou pro zachování důvěry veřejnosti.
3. Škodliví aktéři a zahraniční vměšování
Diskuse se poté přesunula k úloze nepřátelských aktérů při šíření dezinformací. Identifikace těchto aktérů a sledování původu těchto hrozeb je často neuvěřitelně obtížné. Tým DisinfoLab se podělil o poznatky ze svého rozsáhlého výzkumu na toto téma a poukázal na svá publikovaná zjištění. tato zpráva.
Účastníci byli zvědaví na naše vlastní zkušenosti se sledováním škodlivých aktérů. Na základě naší případové studie jsme zdůraznili, jak se ruské dezinformační taktiky ukázaly být obzvláště přizpůsobivé. Například jejich strategie na platformách, jako je TikTok, se zaměřuje na přilákání mladšího, liberálního publika s poutavým obsahem a postupné zavádění propagandy po prvním budování důvěry. Tento přístup spočívající v zařazování dezinformací do narativů, které rezonují s konkrétní demografickou situací, představuje rostoucí hrozbu, zejména na platformách se slabší kontrolou dezinformací, jako je TikTok, ve srovnání s jinými platformami, jako je Meta nebo X (dříve Twitter).
4. Umělá inteligence a kritické myšlení
Dalším důležitým bodem, který byl vznesen, byla potřeba vyhnout se slepé závislosti na umělé inteligenci v boji proti falešným zprávám a místo toho podpořit zvědavost a pochopení toho, jak systémy umělé inteligence fungují.
Někteří účastníci vyzvali k iniciativám na „odstranění mystifikace umělé inteligence“ a rozsáhlým jazykovým modelům a tvrdili, že lidé se s umělou inteligencí často pasivně zapojují, aniž by chápali její základní procesy. Navrhli, že podpora zvědavosti na strojové učení od útlého věku by mohla pomoci tyto nástroje zpřístupnit široké veřejnosti.
To je ve skutečnosti součástí zdůvodnění zavedení komiksu jako vzdělávacího nástroje v našem projektu, což vyvolalo diskusi o tom, zda by vzdělávání lidí o úloze umělé inteligence v boji proti dezinformacím mohlo vést k širšímu přijetí těchto nástrojů nad rámec odborníků.
Poznatky získané z tohoto zasedání pomohou utvářet naše další kroky. Jak projekt AI4Debunk postupuje, těšíme se na pokračování tohoto společného úsilí se zúčastněnými stranami a na zdokonalení našich nástrojů.
Jsme i nadále odhodláni podporovat další dialog a inovace v boji proti dezinformacím a spolupracovat na budování informovanější a odolnější společnosti.




