Den 5. september var Pilot4DEV vært for et multiinteressentmøde i presseklubben i Bruxelles, der samlede førende eksperter, forskere og praktikere for at udveksle viden, drøfte strategier til bekæmpelse af falske nyheder og undersøge, hvordan AI-værktøjer kan udformes til effektivt at tackle disse udfordringer.
Ved arrangementet var AI4Debunk-projektet sammen med de første resultater af vores igangværende online-afstemning (🇬🇧engelsk, 🇫🇷fransk, 🇩🇪tysk, 🇳🇴norsk, 🇬🇷græsk, 🇱🇻lettisk, 🇺🇦ukrainsk) blev fremlagt. Dette satte scenen for en livlig rundbordsdiskussion, hvis vigtigste højdepunkter er beskrevet nedenfor.
1. Projektværktøjer design
Diskussionen understregede ikke kun de samfundsmæssige aspekter af desinformation, men undersøgte også de individuelle psykologiske faktorer, der gør en person sårbar over for manipuleret information online. Det blev foreslået, at disse psykologiske elementer tages i betragtning ved udformningen af projektets AI-værktøjer, der har til formål at bekæmpe desinformation.
Deltagerne udtrykte interesse for værktøjernes udformning og satte spørgsmålstegn ved udvælgelsen af de fire specifikke grænseflader — Web plug-in, Disinfopedia, App og AR/VR — og ved, hvordan de er i overensstemmelse med projektets mål. Der blev givet udtryk for bekymring med hensyn til at sikre, at værktøjerne er tilgængelige for den brede offentlighed, navnlig for dem, der kan drage størst fordel af dem, såsom ældre eller mindre teknologikyndige personer. Selv om der var en vis skepsis med hensyn til, om disse grupper let ville vedtage apps eller AR / VR-systemer, var den generelle enighed, at værktøjerne, især appen, skal være brugervenlige.
Et vigtigt fokuspunkt i drøftelserne var opbygning af tillid som en troværdig kilde, som deltagerne anså for afgørende for at tilskynde til udbredt anvendelse af værktøjerne. Flere interessenter anerkendte udfordringen med at skabe tillid, selv for anerkendte faktatjekkere. Navnlig sårbare personer blev anset for at være mindre tilbøjelige til at have tillid til AI-drevne faktatjekværktøjer, mens mere informerede brugere måske er villige til at eksperimentere med dem.
2. Desinformation vs. misinformation
Deltagerne forhørte sig også om vores definitioner af "desinformation" og "misinformation". Dette førte til en bredere diskussion om begrebet falske nyheder og dets forskellige nuancer: Der findes falske oplysninger på et spektrum, der spænder fra utilsigtet misinformation til bevidst desinformation.
Den måde, hvorpå information indrammes, især gennem brug af følelsesmæssigt sprog, blev set som en faktor, der påvirker, hvordan læserne fortolker indhold. Nogle bemærkede, at der allerede er AI-systemer, der kan vurdere artiklernes følelsesmæssige tone, men der blev udtrykt forsigtighed med hensyn til risikoen for overgeneralisering af forskellige typer falske oplysninger.
I betragtning af kompleksiteten af at fastslå sandheden er faktatjekkere fortsat afhængige af menneskelig analyse — en tilgang, der også er central for vores Disinfopedia. Der var debat om, hvorvidt etablerede medieforetagender bør underrettes, når de offentliggør ukorrekte oplysninger, og nogle gik ind for større samarbejde mellem journalister og faktatjekkere for at sikre, at nyhederne er korrekte. Gennemsigtighed fra journalister, når de begår fejl, blev betragtet som nøglen til at opretholde offentlighedens tillid.
3. Ondsindede aktører og udenlandsk indblanding
Drøftelserne skiftede derefter til ondsindede aktørers rolle med hensyn til at sprede desinformation. Det er ofte utroligt vanskeligt at identificere disse aktører og spore oprindelsen af sådanne trusler. DisinfoLab-teamet delte indsigter fra deres omfattende forskning om dette emne og pegede på deres offentliggjorte resultater, der er tilgængelige i denne rapport.
Deltagerne var nysgerrige på vores egne erfaringer med at spore ondsindede aktører. På baggrund af vores casestudie fremhævede vi, hvordan russiske desinformationstaktikker har vist sig at være særligt tilpasningsdygtige. For eksempel fokuserer deres strategi på platforme som TikTok på at tiltrække yngre, liberale publikum med engagerende indhold og gradvist indføre propaganda efter først at have opbygget tillid. Denne tilgang med at integrere desinformation i fortællinger, der giver genklang i specifikke demografier, udgør en voksende trussel, navnlig på platforme med svagere desinformationskontrol såsom TikTok, sammenlignet med andre platforme såsom Meta eller X (tidligere Twitter).
4. AI og kritisk tænkning
Et andet vigtigt punkt, der blev rejst, var behovet for at undgå at forlade sig blindt på kunstig intelligens i forbindelse med imødegåelse af falske nyheder og i stedet tilskynde til nysgerrighed og forståelse af, hvordan AI-systemer fungerer.
Nogle deltagere opfordrede til initiativer til at "afmystificere kunstig intelligens" og store sprogmodeller og hævdede, at folk ofte engagerer sig passivt i kunstig intelligens uden at forstå de underliggende processer. De foreslog, at fremme af nysgerrighed om maskinlæring fra en tidlig alder kunne bidrage til at gøre disse værktøjer mere tilgængelige for offentligheden.
Dette er faktisk en del af rationalet bag indførelsen af en tegneserie som et uddannelsesværktøj i vores projekt, som udløste en diskussion om, hvorvidt uddannelse af folk om AI's rolle i bekæmpelsen af desinformation kan føre til en bredere anvendelse af disse værktøjer ud over blot fagfolk.
Den indsigt, der opnås fra denne session, vil hjælpe med at forme vores næste skridt. Efterhånden som AI4Debunk-projektet skrider frem, ser vi frem til at fortsætte disse samarbejdsbestræbelser med interessenter og forbedre vores værktøjer.
Vi er fortsat fast besluttet på at fremme yderligere dialog og innovation i kampen mod desinformation og arbejder sammen om at opbygge et mere informeret og modstandsdygtigt samfund.




