Wydarzenie z udziałem wielu zainteresowanych stron w Sofii

Klub „Dziennikarz” przy Związku Dziennikarzy Bułgarskich, Sofia

EUalive, ogólnoeuropejskie medium medialne i członek konsorcjum AI4Debunk, zorganizowało publiczną dyskusję mającą na celu zbadanie, w jaki sposób narzędzia oparte na sztucznej inteligencji mogą wspierać wysiłki na rzecz zwalczania fałszywych informacji i dezinformacji. Wydarzenie zgromadziło dziennikarzy i obywateli, aby omówić rzeczywiste potrzeby, oczekiwania i obawy związane z weryfikacją faktów, sztuczną inteligencją i zaufaniem do mediów.

Uczestnicy

W grupie fokusowej wzięło udział łącznie 12 uczestników. Większość z nich to zawodowi dziennikarze, głównie w wieku powyżej 60 lat, o ogólnie bardziej konserwatywnych poglądach. Uczestnicy zgłaszali, że konsumują informacje głównie za pośrednictwem internetowych serwisów informacyjnych, telewizji i mediów drukowanych, a jednocześnie identyfikowali Facebooka i internetowe platformy informacyjne jako główne źródła, z których najczęściej spotykają się z dezinformacją.

Przeciwdziałanie dezinformacji na temat wydarzenia

Dyskusja rozpoczęła się od obalenia fałszywych twierdzeń dotyczących samego wydarzenia. Związek Dziennikarzy Bułgarskich (UBJ) kategorycznie zaprzeczył zarzutom, że zaprosił „białoruskich propagandystów” na finansowane przez UE szkolenia na temat zwalczania fałszywych informacji. Przewodnicząca UBJ oświadczyła, że oskarżenia pochodzą z wprowadzającej w błąd publikacji białoruskiego ośrodka państwowego Minsk News, a następnie zostały powtórzone przez białoruskie media opozycyjne bez weryfikacji.

W rzeczywistości wydarzenie to było godzinną dyskusją publiczną zatytułowaną „Sztuczna inteligencja i fałszywe wiadomości: What Is the Working Solution?”, organizowanym przez EUalive i prowadzonym w siedzibie UBJ. Dyskusja przebiegała zgodnie z planem pomimo kontrowersji medialnych, podkreślając, jak szybko dezinformacja może rozprzestrzeniać się nawet w profesjonalnych kręgach medialnych.

Prezentacja projektu AI4Debunk

Zespół EUalive pod przewodnictwem Georgiego Goteva przedstawił projekt AI4Debunk, przedstawiając jego cele, partnerów konsorcjum i dotychczasowe postępy. Przedstawiciel F6S przedstawił dodatkowe informacje na temat technologicznych aspektów projektu i roli organizacji partnerskich. Podkreślono, że projekt ma jasno określony i ograniczony zakres: wspieranie użytkowników w identyfikowaniu i ocenie dezinformacji zamiast rozwiązywania szerszych problemów systemowych, takich jak generowanie obrazów syntetycznych lub ogólna regulacja sztucznej inteligencji.

Kluczowe tematy dyskusji

Uczestnicy szeroko zastanowili się nad rolą sztucznej inteligencji w ekosystemie informacyjnym. Omówiono kilka przykładów ilustrujących, w jaki sposób niekompletne lub selektywnie prezentowane informacje mogą generować dezinformację, w tym przypadki związane z narracjami historycznymi i międzynarodowymi relacjami informacyjnymi.

Powtarzającym się tematem była podwójna natura sztucznej inteligencji. Podczas gdy niektórzy uczestnicy postrzegali sztuczną inteligencję jako potencjalnie potężne narzędzie weryfikacji i weryfikacji faktów, inni wyrazili obawy dotyczące jej niewłaściwego wykorzystania, w szczególności w generowaniu syntetycznego tekstu, obrazów i artykułów, które mogą wprowadzać odbiorców w błąd. Poruszono również kwestie związane z RODO, ochroną źródeł i zdolnością dziennikarzy do obrony swojej pracy przed treściami generowanymi przez sztuczną inteligencję.

W dyskusji podkreślono, że systemy sztucznej inteligencji są tylko tak wiarygodne, jak dane, na których są szkolone. Ponieważ informacje w internecie są często niedokładne, stronnicze lub celowo wprowadzające w błąd, uczestnicy zgodzili się, że nie można oczekiwać, że sztuczna inteligencja będzie konsekwentnie generować obiektywną prawdę. Ograniczenie to wzmacnia znaczenie umiejętności korzystania z mediów, ludzkiego osądu, standardów zawodowych i odpowiedzialności redakcyjnej.

Umiejętność korzystania z mediów, zaufanie i odpowiedzialność zawodowa

Kilku uczestników podkreśliło, że umiejętność korzystania z mediów pozostaje najbardziej krytyczną obroną przed dezinformacją, zarówno teraz, jak i w przyszłości. Zarówno dziennikarze, jak i obywatele muszą mieć możliwość kwestionowania własnych przekonań, wyjścia poza algorytmiczne „bańki informacyjne” i poszukiwania różnych źródeł. Pojawiły się obawy dotyczące odbiorców oczekujących, że sztuczna inteligencja dostarczy absolutnej prawdy, co może zwiększyć podatność na dezinformację generowaną lub wzmacnianą przez systemy sztucznej inteligencji.

Sondaż przeprowadzony podczas dyskusji pokazał, że większość uczestników korzysta już z narzędzi sztucznej inteligencji w swojej pracy zawodowej. Moderator podkreślił znaczenie mechanizmów społecznych dla weryfikacji informacji, a także potrzebę edukacji na temat działania sztucznej inteligencji, w tym szybkiego formułowania i krytycznej oceny wyników sztucznej inteligencji. Omówiono również rolę systemów edukacji, w szczególności wprowadzenie sztucznej inteligencji i umiejętności korzystania z mediów w szkołach.

Prawa autorskie i branże kreatywne

Kwestia praw autorskich stała się poważnym problemem. Uczestnicy zauważyli, że odszkodowanie za naruszenie praw autorskich w Bułgarii jest obecnie minimalne, co rodzi pytania o to, w jaki sposób autorzy, dziennikarze, artyści i muzycy mogą chronić swoją pracę w dobie generatywnej sztucznej inteligencji. Niektórzy uczestnicy wyrazili zdecydowane poglądy, że sztuczna inteligencja stanowi bezpośrednie zagrożenie dla branż kreatywnych, a jeden z dziennikarzy argumentował, że sztuczna inteligencja powinna zostać całkowicie zakazana w produkcji artystycznej.

Uczestnicy wypełnili ankietę podsumowaną poniżej:

Narażenie na dezinformację

Uczestnicy wskazali, że najczęściej spotykają się z dezinformacją na temat Facebook oraz internetowe media informacyjne

Praktyki weryfikacyjne

Na pytanie, w jaki sposób weryfikują informacje, co do których podejrzewają, że mogą być fałszywe lub wprowadzające w błąd, respondenci zgłosili, że polegają przede wszystkim na:

  • Wyszukiwarki 
  • źródła urzędowe, 
  • Dyskusje z kolegami, przyjaciółmi

Preferowane formaty dowodów

  • Krótkie pisemne wyjaśnienia, które jasno określają, dlaczego treść wprowadza w błąd
  • Bezpośrednie linki do wiarygodnych źródeł internetowych wspierających korektę lub wyjaśnienie

Zgłaszanie dezinformacji

Uczestnicy zostali zapytani, w jaki sposób wolą sygnalizować lub zgłaszać dezinformację lub fałszywe informacje. Wśród najkorzystniejszych mechanizmów sprawozdawczych znalazły się:

  • Rozszerzenia przeglądarki, umożliwiające użytkownikom oznaczanie treści bezpośrednio w środowisku przeglądania
  • Aplikacje mobilne, zapewniające dostępność i łatwość obsługi

Preferowane funkcje systemu

Na pytanie, jaki rodzaj systemu byłby najbardziej pomocny w rozpoznawaniu dezinformacji, respondenci określili następujące warianty:

  • Aplikacja mobilna 
  • Funkcja zintegrowana bezpośrednio z platformami
  • Publiczna baza danych zweryfikowanych spraw z możliwością przeszukiwania 
  • Ostrzeżenia lub etykiety wspomagane sztuczną inteligencją 

Przedkładanie dowodów i informacji zwrotnych

Respondenci opowiedzieli się za przedstawieniem dowodów w postaci prostego linku do źródła internetowego zawierającego odpowiednie informacje. Ponadto istniała silna zgoda co do tego, że użytkownicy powinni otrzymywać informacje zwrotne po złożeniu sprawozdania, przy czym większość respondentów wskazała, że potwierdzenie lub działania następcze zwiększyłyby zaufanie do narzędzia i dalsze korzystanie z niego.

Motywacja do korzystania z narzędzia do debugowania

Zapytani o ich główną motywację do korzystania z narzędzia do wykrywania lub zgłaszania dezinformacji, respondenci cytowali:

  • Zwalczanie dezinformacji 
  • Poprawa ogólnej jakości informacji 
  • Udział w debacie publicznej 

Główne obawy i zagrożenia

Ponadto respondenci zwrócili uwagę na szereg obaw związanych z narzędziami, które wymagają od użytkowników przedstawienia dowodów:

  • Ryzyko nieprawidłowej walidacji informacji 
  • Czas potrzebny na skorzystanie z narzędzia 
  • Potencjalne nadużycia ze strony innych 
  • Uprzedzenia w systemach zautomatyzowanych 
  • Kwestie związane z prywatnością i ochroną danych 

Więcej o AI4Debunk

W ostatnich latach dezinformacja przeszła od okazjonalnych ujęć „fałszywych informacji” do systemowego zagrożenia, które wykorzystuje manipulacje językowe, mechanizmy medialne, sztuczną inteligencję i transnarodowe strategie polityczne do
6 stycznia 2026 r. w Rydze odbyła się wielostronna dyskusja pt. „Wykorzystanie sztucznej inteligencji w zwalczaniu dezinformacji”, zorganizowana przez Uniwersytet Łotewski.
6 listopada 2025 r. w brukselskim klubie prasowym odbył się wielostronny okrągły stół AI4DEBUNK, w którym wzięło udział ponad 20 ekspertów.