5 września Pilot4DEV był gospodarzem spotkania z udziałem wielu zainteresowanych stron w klubie prasowym w Brukseli, w którym wzięli udział czołowi eksperci, badacze i praktycy w celu wymiany wiedzy, omówienia strategii zwalczania fałszywych informacji i zbadania, w jaki sposób można zaprojektować narzędzia AI, aby skutecznie sprostać tym wyzwaniom.
Podczas wydarzenia projekt AI4Debunk wraz z wstępnymi ustaleniami naszego trwającego sondażu online (🇬🇧angielski, 🇫🇷francuski, 🇩🇪niemiecki, 🇳🇴norweski, 🇬🇷grecki, 🇱🇻łotewski, 🇺🇦ukraiński) zostały przedstawione. Przygotowało to grunt pod ożywioną dyskusję przy okrągłym stole, której najważniejsze punkty opisano poniżej.
1. Projektowanie narzędzi projektowych
Dyskusja nie tylko podkreśliła społeczne aspekty dezinformacji, ale także zbadała indywidualne czynniki psychologiczne, które sprawiają, że ktoś jest podatny na zmanipulowane informacje w Internecie. Zasugerowano uwzględnienie tych elementów psychologicznych przy opracowywaniu narzędzi sztucznej inteligencji w ramach projektu mających na celu zwalczanie dezinformacji.
Uczestnicy wyrazili zainteresowanie projektem narzędzi, kwestionując wybór czterech konkretnych interfejsów – wtyczki internetowej, Disinfopedii, aplikacji i AR/VR – oraz ich zgodność z celami projektu. Pojawiły się obawy dotyczące zapewnienia dostępności narzędzi dla ogółu społeczeństwa, zwłaszcza dla tych, którzy mogą z nich czerpać największe korzyści, takich jak osoby starsze lub mniej obeznane z technologią. Chociaż istniał pewien sceptycyzm co do tego, czy grupy te chętnie przyjmą aplikacje lub systemy AR / VR, ogólna zgoda była taka, że narzędzia, zwłaszcza aplikacja, muszą być przyjazne dla użytkownika.
Głównym tematem dyskusji było budowanie zaufania jako wiarygodnego źródła, które uczestnicy uznali za kluczowe dla zachęcania do powszechnego korzystania z narzędzi. Kilka zainteresowanych stron przyznało, że wyzwaniem jest zdobycie zaufania, nawet dla uznanych weryfikatorów faktów. W szczególności osoby znajdujące się w trudnej sytuacji były postrzegane jako mniej narażone na zaufanie do narzędzi weryfikacji faktów opartych na sztucznej inteligencji, podczas gdy bardziej poinformowani użytkownicy mogą być skłonni do eksperymentowania z nimi.
2. Dezinformacja a dezinformacja
Uczestnicy zapytali również o nasze definicje „dezinformacji” i „dezinformacji”. Doprowadziło to do szerszej dyskusji na temat pojęcia fake news i jego różnych odcieni: fałszywe informacje istnieją w szerokim spektrum, od niezamierzonych informacji wprowadzających w błąd po umyślną dezinformację.
Sposób, w jaki informacje są oprawione, zwłaszcza poprzez użycie języka emocjonalnego, był postrzegany jako czynnik, który wpływa na to, jak czytelnicy interpretują treści. Niektórzy zauważyli, że istnieją już systemy sztucznej inteligencji, które mogą ocenić emocjonalny ton artykułów, ale wyrażono ostrożność w odniesieniu do ryzyka nadmiernego uogólnienia różnych rodzajów fałszywych informacji.
Biorąc pod uwagę złożoność ustalania prawdy, weryfikatorzy faktów nadal polegają na analizie ludzkiej – podejście to ma również kluczowe znaczenie dla naszej Disinfopedii. Odbyła się debata na temat tego, czy media o ugruntowanej pozycji powinny być powiadamiane o publikowaniu nieprawidłowych informacji, przy czym niektóre z nich opowiadały się za ściślejszą współpracą między dziennikarzami a weryfikatorami faktów w celu zapewnienia dokładności informacji. Przejrzystość ze strony dziennikarzy, gdy popełniają błędy, była postrzegana jako klucz do utrzymania zaufania publicznego.
3. Złośliwe podmioty i obce ingerencje
Dyskusja przesunęła się następnie w kierunku roli podmiotów działających w złych zamiarach w rozpowszechnianiu dezinformacji. Identyfikacja tych podmiotów i śledzenie źródeł takich zagrożeń jest często niezwykle trudne. Zespół DisinfoLab podzielił się spostrzeżeniami z ich szeroko zakrojonych badań na ten temat, wskazując na ich opublikowane wyniki dostępne w niniejszego sprawozdania.
Uczestnicy byli ciekawi naszych własnych doświadczeń w śledzeniu złośliwych aktorów. Na podstawie naszego studium przypadku podkreśliliśmy, że rosyjskie taktyki dezinformacyjne okazały się szczególnie adaptacyjne. Na przykład ich strategia na platformach takich jak TikTok koncentruje się na przyciąganiu młodszych, liberalnych odbiorców angażującymi treściami, stopniowo wprowadzając propagandę po pierwszym zbudowaniu zaufania. Takie podejście polegające na włączaniu dezinformacji do narracji, które współgrają z konkretną sytuacją demograficzną, stanowi rosnące zagrożenie, zwłaszcza na platformach o słabszej kontroli dezinformacji, takich jak TikTok, w porównaniu z innymi platformami, takimi jak Meta lub X (dawniej Twitter).
4. Sztuczna inteligencja i krytyczne myślenie
Inną ważną podniesioną kwestią była potrzeba unikania polegania ślepo na sztucznej inteligencji podczas przeciwdziałania fałszywym informacjom, a zamiast tego zachęcania do ciekawości i zrozumienia działania systemów sztucznej inteligencji.
Niektórzy uczestnicy zaapelowali o inicjatywy mające na celu „demistyfikację sztucznej inteligencji” i dużych modeli językowych, argumentując, że ludzie często pasywnie angażują się w sztuczną inteligencję, nie rozumiejąc jej podstawowych procesów. Zasugerowali, że zwiększenie zainteresowania uczeniem maszynowym od najmłodszych lat może pomóc w uczynieniu tych narzędzi bardziej dostępnymi dla ogółu społeczeństwa.
Jest to w rzeczywistości część uzasadnienia wprowadzenia komiksu jako narzędzia edukacyjnego w naszym projekcie, które wywołało dyskusję na temat tego, czy edukowanie ludzi na temat roli sztucznej inteligencji w zwalczaniu dezinformacji może prowadzić do szerszego przyjęcia tych narzędzi niż tylko profesjonaliści.
Spostrzeżenia uzyskane podczas tej sesji pomogą w kształtowaniu naszych kolejnych kroków. W miarę postępów projektu AI4Debunk z niecierpliwością czekamy na kontynuację tych wspólnych wysiłków z zainteresowanymi stronami i udoskonalanie naszych narzędzi.
Nadal angażujemy się we wspieranie dalszego dialogu i innowacji w walce z dezinformacją, współpracując na rzecz budowania bardziej świadomego i odpornego społeczeństwa.




