Klub „Dziennikarz” przy Związku Dziennikarzy Bułgarskich, Sofia



EUalive, ogólnoeuropejskie medium medialne i członek konsorcjum AI4Debunk, zorganizowało publiczną dyskusję mającą na celu zbadanie, w jaki sposób narzędzia oparte na sztucznej inteligencji mogą wspierać wysiłki na rzecz zwalczania fałszywych informacji i dezinformacji. Wydarzenie zgromadziło dziennikarzy i obywateli, aby omówić rzeczywiste potrzeby, oczekiwania i obawy związane z weryfikacją faktów, sztuczną inteligencją i zaufaniem do mediów.
Uczestnicy
W grupie fokusowej wzięło udział łącznie 12 uczestników. Większość z nich to zawodowi dziennikarze, głównie w wieku powyżej 60 lat, o ogólnie bardziej konserwatywnych poglądach. Uczestnicy zgłaszali, że konsumują informacje głównie za pośrednictwem internetowych serwisów informacyjnych, telewizji i mediów drukowanych, a jednocześnie identyfikowali Facebooka i internetowe platformy informacyjne jako główne źródła, z których najczęściej spotykają się z dezinformacją.
Przeciwdziałanie dezinformacji na temat wydarzenia
Dyskusja rozpoczęła się od obalenia fałszywych twierdzeń dotyczących samego wydarzenia. Związek Dziennikarzy Bułgarskich (UBJ) kategorycznie zaprzeczył zarzutom, że zaprosił „białoruskich propagandystów” na finansowane przez UE szkolenia na temat zwalczania fałszywych informacji. Przewodnicząca UBJ oświadczyła, że oskarżenia pochodzą z wprowadzającej w błąd publikacji białoruskiego ośrodka państwowego Minsk News, a następnie zostały powtórzone przez białoruskie media opozycyjne bez weryfikacji.
W rzeczywistości wydarzenie to było godzinną dyskusją publiczną zatytułowaną „Sztuczna inteligencja i fałszywe wiadomości: What Is the Working Solution?”, organizowanym przez EUalive i prowadzonym w siedzibie UBJ. Dyskusja przebiegała zgodnie z planem pomimo kontrowersji medialnych, podkreślając, jak szybko dezinformacja może rozprzestrzeniać się nawet w profesjonalnych kręgach medialnych.
Prezentacja projektu AI4Debunk
Zespół EUalive pod przewodnictwem Georgiego Goteva przedstawił projekt AI4Debunk, przedstawiając jego cele, partnerów konsorcjum i dotychczasowe postępy. Przedstawiciel F6S przedstawił dodatkowe informacje na temat technologicznych aspektów projektu i roli organizacji partnerskich. Podkreślono, że projekt ma jasno określony i ograniczony zakres: wspieranie użytkowników w identyfikowaniu i ocenie dezinformacji zamiast rozwiązywania szerszych problemów systemowych, takich jak generowanie obrazów syntetycznych lub ogólna regulacja sztucznej inteligencji.
Kluczowe tematy dyskusji
Uczestnicy szeroko zastanowili się nad rolą sztucznej inteligencji w ekosystemie informacyjnym. Omówiono kilka przykładów ilustrujących, w jaki sposób niekompletne lub selektywnie prezentowane informacje mogą generować dezinformację, w tym przypadki związane z narracjami historycznymi i międzynarodowymi relacjami informacyjnymi.
Powtarzającym się tematem była podwójna natura sztucznej inteligencji. Podczas gdy niektórzy uczestnicy postrzegali sztuczną inteligencję jako potencjalnie potężne narzędzie weryfikacji i weryfikacji faktów, inni wyrazili obawy dotyczące jej niewłaściwego wykorzystania, w szczególności w generowaniu syntetycznego tekstu, obrazów i artykułów, które mogą wprowadzać odbiorców w błąd. Poruszono również kwestie związane z RODO, ochroną źródeł i zdolnością dziennikarzy do obrony swojej pracy przed treściami generowanymi przez sztuczną inteligencję.
W dyskusji podkreślono, że systemy sztucznej inteligencji są tylko tak wiarygodne, jak dane, na których są szkolone. Ponieważ informacje w internecie są często niedokładne, stronnicze lub celowo wprowadzające w błąd, uczestnicy zgodzili się, że nie można oczekiwać, że sztuczna inteligencja będzie konsekwentnie generować obiektywną prawdę. Ograniczenie to wzmacnia znaczenie umiejętności korzystania z mediów, ludzkiego osądu, standardów zawodowych i odpowiedzialności redakcyjnej.
Umiejętność korzystania z mediów, zaufanie i odpowiedzialność zawodowa
Kilku uczestników podkreśliło, że umiejętność korzystania z mediów pozostaje najbardziej krytyczną obroną przed dezinformacją, zarówno teraz, jak i w przyszłości. Zarówno dziennikarze, jak i obywatele muszą mieć możliwość kwestionowania własnych przekonań, wyjścia poza algorytmiczne „bańki informacyjne” i poszukiwania różnych źródeł. Pojawiły się obawy dotyczące odbiorców oczekujących, że sztuczna inteligencja dostarczy absolutnej prawdy, co może zwiększyć podatność na dezinformację generowaną lub wzmacnianą przez systemy sztucznej inteligencji.
Sondaż przeprowadzony podczas dyskusji pokazał, że większość uczestników korzysta już z narzędzi sztucznej inteligencji w swojej pracy zawodowej. Moderator podkreślił znaczenie mechanizmów społecznych dla weryfikacji informacji, a także potrzebę edukacji na temat działania sztucznej inteligencji, w tym szybkiego formułowania i krytycznej oceny wyników sztucznej inteligencji. Omówiono również rolę systemów edukacji, w szczególności wprowadzenie sztucznej inteligencji i umiejętności korzystania z mediów w szkołach.
Prawa autorskie i branże kreatywne
Kwestia praw autorskich stała się poważnym problemem. Uczestnicy zauważyli, że odszkodowanie za naruszenie praw autorskich w Bułgarii jest obecnie minimalne, co rodzi pytania o to, w jaki sposób autorzy, dziennikarze, artyści i muzycy mogą chronić swoją pracę w dobie generatywnej sztucznej inteligencji. Niektórzy uczestnicy wyrazili zdecydowane poglądy, że sztuczna inteligencja stanowi bezpośrednie zagrożenie dla branż kreatywnych, a jeden z dziennikarzy argumentował, że sztuczna inteligencja powinna zostać całkowicie zakazana w produkcji artystycznej.
Uczestnicy wypełnili ankietę podsumowaną poniżej:
Narażenie na dezinformację
Uczestnicy wskazali, że najczęściej spotykają się z dezinformacją na temat Facebook oraz internetowe media informacyjne.
Praktyki weryfikacyjne
Na pytanie, w jaki sposób weryfikują informacje, co do których podejrzewają, że mogą być fałszywe lub wprowadzające w błąd, respondenci zgłosili, że polegają przede wszystkim na:
- Wyszukiwarki
- źródła urzędowe,
- Dyskusje z kolegami, przyjaciółmi
Preferowane formaty dowodów
- Krótkie pisemne wyjaśnienia, które jasno określają, dlaczego treść wprowadza w błąd
- Bezpośrednie linki do wiarygodnych źródeł internetowych wspierających korektę lub wyjaśnienie
Zgłaszanie dezinformacji
Uczestnicy zostali zapytani, w jaki sposób wolą sygnalizować lub zgłaszać dezinformację lub fałszywe informacje. Wśród najkorzystniejszych mechanizmów sprawozdawczych znalazły się:
- Rozszerzenia przeglądarki, umożliwiające użytkownikom oznaczanie treści bezpośrednio w środowisku przeglądania
- Aplikacje mobilne, zapewniające dostępność i łatwość obsługi
Preferowane funkcje systemu
Na pytanie, jaki rodzaj systemu byłby najbardziej pomocny w rozpoznawaniu dezinformacji, respondenci określili następujące warianty:
- Aplikacja mobilna
- Funkcja zintegrowana bezpośrednio z platformami
- Publiczna baza danych zweryfikowanych spraw z możliwością przeszukiwania
- Ostrzeżenia lub etykiety wspomagane sztuczną inteligencją
Przedkładanie dowodów i informacji zwrotnych
Respondenci opowiedzieli się za przedstawieniem dowodów w postaci prostego linku do źródła internetowego zawierającego odpowiednie informacje. Ponadto istniała silna zgoda co do tego, że użytkownicy powinni otrzymywać informacje zwrotne po złożeniu sprawozdania, przy czym większość respondentów wskazała, że potwierdzenie lub działania następcze zwiększyłyby zaufanie do narzędzia i dalsze korzystanie z niego.
Motywacja do korzystania z narzędzia do debugowania
Zapytani o ich główną motywację do korzystania z narzędzia do wykrywania lub zgłaszania dezinformacji, respondenci cytowali:
- Zwalczanie dezinformacji
- Poprawa ogólnej jakości informacji
- Udział w debacie publicznej
Główne obawy i zagrożenia
Ponadto respondenci zwrócili uwagę na szereg obaw związanych z narzędziami, które wymagają od użytkowników przedstawienia dowodów:
- Ryzyko nieprawidłowej walidacji informacji
- Czas potrzebny na skorzystanie z narzędzia
- Potencjalne nadużycia ze strony innych
- Uprzedzenia w systemach zautomatyzowanych
- Kwestie związane z prywatnością i ochroną danych




