Flerpartsevenemang i Sofia

Journalistklubben vid bulgariska journalistförbundet, Sofia

EUalive, en alleuropeisk mediekanal och medlem av AI4Debunk-konsortiet, anordnade en offentlig diskussion i syfte att undersöka hur AI-drivna verktyg kan stödja insatser för att motverka falska nyheter och desinformation. Evenemanget samlade journalister och medborgare för att diskutera verkliga behov, förväntningar och farhågor i samband med faktagranskning, artificiell intelligens och medieförtroende.

Deltagare

Totalt deltog 12 deltagare i fokusgruppen. Majoriteten var professionella journalister, främst över 60 år, med i allmänhet mer konservativa åsikter. Deltagarna rapporterade att de konsumerade information främst via nyhetskanaler online, tv och tryckta medier, samtidigt som de identifierade Facebook och nyhetsplattformar online som de främsta källorna där de oftast stöter på desinformation.

Hantering av felaktig information om evenemanget

Diskussionen inleddes med avslöjandet av falska påståenden om själva händelsen. Bulgariska journalistförbundet (UBJ) förnekade kategoriskt påståenden om att man hade bjudit in ”belarusiska propagandister” för EU-finansierad utbildning i kampen mot falska nyheter. UBJ:s ordförande uppgav att anklagelserna härrörde från en vilseledande publikation av den belarusiska statliga nyhetskanalen Minsk News och senare upprepades av belarusiska oppositionsmedier utan kontroll.

I själva verket var evenemanget en timmes offentlig diskussion med titeln Artificiell intelligens och falska nyheter: What Is the Working Solution?, som anordnas av EUalive och hålls i UBJ:s lokaler. Diskussionen fortsatte som planerat trots mediekontroversen och belyste hur snabbt desinformation kan spridas även inom professionella mediekretsar.

Presentation av AI4Debunk-projektet

Det EUalive-team som leddes av Georgi Gotev presenterade AI4Debunk-projektet och beskrev dess mål, konsortiepartner och framsteg hittills. En företrädare för F6S gav ytterligare insikter i projektets tekniska aspekter och partnerorganisationernas roll. Det betonades att projektet har en tydligt definierad och begränsad omfattning: hjälpa användarna att identifiera och bedöma desinformation, snarare än att lösa bredare systemfrågor såsom generering av syntetiska bilder eller den övergripande regleringen av AI.

Viktiga diskussionsteman

Deltagarna reflekterade i stor utsträckning över den roll som artificiell intelligens spelar i informationsekosystemet. Flera exempel diskuterades för att illustrera hur ofullständig eller selektivt presenterad information kan generera desinformation, bland annat fall som rör historiska berättelser och internationell nyhetsbevakning.

Ett återkommande tema var AI:s dubbla karaktär. Medan vissa deltagare såg AI som ett potentiellt kraftfullt verktyg för faktakontroll och verifiering, uttryckte andra oro över dess missbruk, särskilt för att generera syntetisk text, bilder och artiklar som kan vilseleda publiken. Frågor som rör den allmänna dataskyddsförordningen, källskydd och journalisters förmåga att försvara sitt arbete mot AI-genererat innehåll togs också upp.

Diskussionen visade att AI-system endast är lika tillförlitliga som de data som de tränas på. Eftersom onlineinformation ofta är felaktig, partisk eller avsiktligt vilseledande höll deltagarna med om att AI inte kan förväntas konsekvent producera objektiv sanning. Denna begränsning förstärker vikten av mediekompetens, mänskligt omdöme, professionella standarder och redaktionellt ansvar.

Mediekompetens, förtroende och professionellt ansvar

Flera deltagare betonade att mediekompetens fortfarande är det mest kritiska försvaret mot desinformation, både nu och i framtiden. Journalister och medborgare måste kunna utmana sina egna övertygelser, kliva utanför algoritmiska ”informationsbubblor” och söka olika källor. Farhågor uttrycktes om att publiken förväntar sig att AI ska leverera absolut sanning, vilket kan öka sårbarheten för desinformation som genereras eller förstärks av AI-system.

En undersökning som genomfördes under diskussionen visade att de flesta deltagarna redan använder AI-verktyg i sitt professionella arbete. Moderatorn betonade vikten av samhällsmekanismer för att verifiera information samt behovet av utbildning om hur AI fungerar, inbegripet snabb formulering och kritisk utvärdering av AI-resultat. Utbildningssystemens roll, särskilt införandet av AI och mediekompetens i skolorna, diskuterades också.

Upphovsrätt och kreativa industrier

Frågan om upphovsrätt framträdde som ett stort problem. Deltagarna noterade att ersättningen för upphovsrättsintrång i Bulgarien för närvarande är minimal, vilket väcker frågor om hur författare, journalister, konstnärer och musiker kan skydda sitt arbete i en ålder av generativ AI. Vissa deltagare uttryckte starka åsikter om att AI utgör ett direkt hot mot kreativa industrier, och en journalist hävdade att AI bör förbjudas från konstnärlig produktion helt och hållet.

Deltagarna fyllde i en enkät som sammanfattas nedan:

Exponering för desinformation

Deltagarna uppgav att de oftast stöter på desinformation om Facebook och i nyhetsmedier på nätet

Verifieringsmetoder

På frågan om hur de kontrollerar information som de misstänker kan vara falsk eller vilseledande svarade de svarande att de främst förlitade sig på följande:

  • Sökmotorer 
  • Officiella källor. 
  • Diskussioner med kollegor, vänner

Föredragna bevisformat

  • Korta skriftliga förklaringar som tydligt beskriver varför innehållet är vilseledande
  • Direkta länkar till tillförlitliga källor på nätet som stöder korrigeringen eller förtydligandet

Rapportera desinformation

Deltagarna tillfrågades hur de skulle föredra att signalera eller rapportera desinformation eller falska nyheter. De mest gynnade rapporteringsmekanismerna var bland annat följande:

  • Webbläsartillägg som gör det möjligt för användare att flagga innehåll direkt i sin webbläsarmiljö
  • Mobila applikationer som erbjuder tillgänglighet och användarvänlighet

Föredragna systemfunktioner

På frågan om vilken typ av system som skulle vara mest användbart för att känna igen desinformation identifierade de svarande följande alternativ:

  • Mobilapplikation 
  • Funktionen är integrerad direkt i plattformarna
  • Offentlig, sökbar databas över kontrollerade ärenden 
  • AI-stödda varningar eller etiketter 

Inlämning av bevis och återkoppling

De svarande föredrog att lägga fram bevis i form av en enkel länk till en onlinekälla med relevant information. Det rådde dessutom stor enighet om att användarna bör få återkoppling efter att ha lämnat in en rapport, och de flesta uppgiftslämnare uppgav att bekräftelse eller uppföljning skulle öka förtroendet för och den fortsatta användningen av verktyget.

Motivation för att använda ett debunking-verktyg

På frågan om deras främsta motiv för att använda ett verktyg för upptäckt eller rapportering av desinformation angav de svarande följande:

  • Bekämpning av desinformation 
  • Förbättra den övergripande kvaliteten på informationen 
  • Bidra till den offentliga debatten 

Viktiga bekymmer och risker

Slutligen identifierade uppgiftslämnarna flera problem med verktyg som kräver att användarna lämnar in bevis:

  • Risk för felaktig validering av information 
  • Tid som krävs för att använda verktyget 
  • Potentiellt missbruk av andra 
  • Bias i automatiserade system 
  • Integritets- och dataskyddsfrågor 

Mer från AI4Debunk

Under de senaste åren har desinformation gått från enstaka skott av ”falska nyheter” till ett systemhot som använder språklig manipulation, mediemekanismer, artificiell intelligens och transnationella politiska strategier för att
En flerpartsdiskussion om användningen av artificiell intelligens i kampen mot desinformation, som anordnades av Lettlands universitet, hölls i Riga den 6 januari 2026.
Den 6 november 2025 ägde flerpartsrundan AI4DEBUNK rum vid pressklubben i Bryssel, där mer än 20 experter deltog.