Wydarzenie z udziałem wielu zainteresowanych stron w Sofii

25 listopada w Sofii odbyło się drugie wielostronne spotkanie AI4Debunk. Jedenastu uczestników – dziennikarze, pracownicy ‑checkers, pracownicy naukowi, działacze obywatelscy ‑tech i członkowie zespołu projektowego – zebrało się w Związku Bułgarskiego Klubu Dziennikarzy „Dziennikarz” w celu wymiany poglądów na temat opartych na AI‑ odpowiedzi na fałszywe informacje oraz w celu przetestowania wczesnych założeń z 12. pakietu roboczego.

Dezinformacja, sztuczna inteligencja i bułgarski kontekst medialny

Sesja rozpoczęła się przeglądem celów AI4Debunk i bieżących postępów, przeprowadzonym przez zespół EURACTIV Bułgaria. Dyskusja szybko zwróciła uwagę na szczególną podatność Bułgarii na zagraniczne kampanie dezinformacyjne sponsorowane przez ‑. Większość uczestników zgodziła się, że „nowa normalność” zmanipulowanych treści już kształtuje debatę publiczną oraz że ‑grown i podmioty zewnętrzne wykorzystują ekosystemy social‑media do pogłębiania podziałów społecznych.

Uczestnicy podkreślili, że rozwiązania w zakresie sztucznej inteligencji muszą być przejrzyste, wyjaśnialne i dostosowane do użytkowników o bardzo różnym poziomie umiejętności korzystania z mediów, zwłaszcza osób starszych i obywateli w regionach wiejskich. Kilku prelegentów z zadowoleniem przyjęło unijny akt w sprawie sztucznej inteligencji, ale wyraziło wątpliwości co do tego, jak egzekwowanie przepisów będzie działało w praktyce; jako dodatkowe zabezpieczenie przed tajnymi operacjami wywierania wpływu zaproponowano publiczny spis własności i finansowania mediów.

Informacje dla publiczności: Postrzeganie i zachowanie

Po prezentacji uczestnicy zaangażowali się w aktywną dyskusję przy użyciu półstrukturalnego formatu. Informacje zwrotne od odbiorców dostarczyły cennych informacji na temat postrzegania dezinformacji i potencjalnych zastosowań narzędzi sztucznej inteligencji w przeciwdziałaniu jej:

    • Znajomość projektu: Pięciu uczestników było świadomych AI4Debunk, Trzy z nich spotkały się z nim po raz pierwszy.
    • Postrzeganie fałszywych wiadomości: Sześciu uczestników postrzegało fałszywe wiadomości jako poważne zagrożenie, ale jeden uznał temat za przesadny.
    • Doświadczenie ze sztuczną inteligencją: Siedmiu uczestników korzystało z narzędzi sztucznej inteligencji, a trzech nie.
    • Spotkania z fałszywymi wiadomościami generowanymi przez sztuczną inteligencję: Sześciu uczestników natknęło się na fałszywe wiadomości generowane przez sztuczną inteligencję, chociaż jeden przyznał, że nie zwracał na to uwagi.
    • Zwalczanie dezinformacji: Siedem osób zgodziło się co do tego, jak ważne jest zajęcie się fałszywymi informacjami, podczas gdy jeden uznał, że problem jest przesadzony.
    • Podatność Bułgarii na zagrożenia: Dziewięciu uczestników uważało, że Bułgaria jest szczególnie podatna na kampanie dezinformacyjne.
    • Gotowość do uczestnictwa: Siedmiu wyraziło zainteresowanie dołączeniem do projektów takich jak AI4Debunk, podczas gdy jeden nie wykazywał zainteresowania.
    • Osobiste doświadczenia z fałszywymi wiadomościami: Pięciu przyznało, że w przeszłości padło ofiarą fałszywych wiadomości, a ośmiu zaobserwowało fałszywe wiadomości w uznanych mediach.
    • Wysiłki na rzecz ochrony innych: Dziewięciu uczestników ostrzegło rodzinę i przyjaciół przed dezinformacją.
    • Umiejętność rozpoznawania fałszywych wiadomości: Osiem czuło się pewnie w swojej zdolności do wykrywania fałszywych wiadomości.

Kluczowe tematy i Take‑aways

Dostęp i zaufanie do narzędzi sztucznej inteligencji: W dyskusji podkreślono potrzebę udostępnienia narzędzi sztucznej inteligencji szerszemu gronu odbiorców, w szczególności osobom starszym i mniej doświadczonym technologicznie. Budowanie zaufania do tych narzędzi uznano za krytyczne, ponieważ nawet renomowani weryfikatorzy faktów często spotykają się ze sceptycyzmem.

    • Odcienie dezinformacji: Uczestnicy przyznali, że w spektrum istnieją fałszywe informacje, od przypadkowych informacji wprowadzających w błąd po umyślną dezinformację. Sformułowanie wiadomości, szczególnie za pomocą języka emocjonalnego, wpływa na to, jak czytelnicy interpretują treści.
    • Rola mediów i współpracy: Niektórzy opowiadali się za współpracą między dziennikarzami a weryfikatorami faktów w celu zwiększenia dokładności wiadomości, z naciskiem na przejrzystość i rozliczalność w mediach.
    • Zwalczanie złośliwych podmiotów: Uczestnicy omówili wyzwania związane z identyfikacją celowych kampanii dezinformacyjnych i przeciwdziałaniem im, a także spostrzeżenia przedstawione w studiach przypadków dotyczących adaptacyjnych taktyk dezinformacyjnych, w szczególności tych z Rosji.
    • Edukacja i demystifying AI: Wezwano do promowania publicznego zrozumienia sztucznej inteligencji i jej mechanizmów, począwszy od wczesnej edukacji. Mogłoby to pomóc zwiększyć ciekawość i umożliwić osobom fizycznym skuteczne korzystanie z narzędzi sztucznej inteligencji.

Dyskusja podkreśliła złożoność problemu fałszywych informacji oraz potrzebę całościowego podejścia obejmującego technologię, edukację i współpracę między sektorami. Wydarzenie skutecznie sprzyjało konstruktywnemu dialogowi między zainteresowanymi stronami, uwzględniając cele projektu i badając rozwiązania problemów związanych z dezinformacją.

Więcej o AI4Debunk

EUalive zorganizowało publiczną dyskusję mającą na celu zbadanie, w jaki sposób narzędzia oparte na sztucznej inteligencji mogą wspierać wysiłki na rzecz zwalczania fałszywych informacji i dezinformacji.
W ostatnich latach dezinformacja przeszła od okazjonalnych ujęć „fałszywych informacji” do systemowego zagrożenia, które wykorzystuje manipulacje językowe, mechanizmy medialne, sztuczną inteligencję i transnarodowe strategie polityczne do
6 stycznia 2026 r. w Rydze odbyła się wielostronna dyskusja pt. „Wykorzystanie sztucznej inteligencji w zwalczaniu dezinformacji”, zorganizowana przez Uniwersytet Łotewski.