1 listopada w Domu Europy w Rydze odbyło się spotkanie z udziałem wielu zainteresowanych stron. Sesja zgromadziła 12 przedstawicieli z różnych sektorów, w tym ministerstw rządowych, środowiska biznesu, instytucji badawczych i organizacji pozarządowych.
Profesor Inna Šteinbuka z Uniwersytetu Łotewskiego, Koordynator projektu otworzył dyskusję, przedstawiając projekt AI4Debunk. Podkreśliła znaczenie regularnej koordynacji i współpracy między wszystkimi zainteresowanymi stronami zaangażowanymi w zwalczanie sztucznej inteligencji (AI) i dezinformacji. Podkreśliła, że szerokie rozpowszechnianie wyników projektu będzie miało kluczowe znaczenie, a sieci zainteresowanych stron odegrają zasadniczą rolę w zapewnieniu, aby wyniki te dotarły do niezbędnych odbiorców.
dezinformacja, AI i regulacji
Głównym tematem dyskusji było uznanie dezinformacji za „nową normalność”. Uczestnicy zauważyli, że zwłaszcza w państwach bałtyckich rozpowszechnienie, wpływ i wpływ dezinformacji są dobrze rozumiane. Wyrażono obawy dotyczące rosnącej ingerencji zagranicznej w politykę europejską, zwłaszcza ze strony Rosji i Chin, co stanowi poważne wyzwanie dla stabilności w regionie.
Jeżeli chodzi o rolę sztucznej inteligencji, uczestnicy ogólnie zgodzili się, że sama sztuczna inteligencja nie może w pełni zaradzić złożoności dezinformacji. Potrzebne jest bardziej kompleksowe i systemowe podejście, z narzędziami AI dostosowanymi do wymogów konkretnych grup docelowych. Na przykład media i platformy mediów społecznościowych mogą wykorzystywać sztuczną inteligencję do wspierania weryfikacji faktów i śledzenia dezinformacji. Uczestnicy podkreślili znaczenie identyfikacji odrębnych potrzeb tych grup przed zaprojektowaniem narzędzi sztucznej inteligencji.
Rozmowa dotyczyła również mechanizmów regulacyjnych. Chociaż uczestnicy wyrazili uznanie dla przyjęcia unijnego aktu w sprawie sztucznej inteligencji, zadali pytania dotyczące jego wdrożenia i praktycznych wyników. Wyrażono szerokie poparcie dla utworzenia przejrzystego katalogu podmiotów medialnych, zawierającego szczegółowe informacje na temat własności, beneficjentów i źródeł finansowania, który pomógłby w wykrywaniu dezinformacji.
Narzędzia sztucznej inteligencji do zwalczania dezinformacji: wyzwania i szanse
Zaufanie do technologii stało się kluczową kwestią. Dane z badań ankietowych wskazują na spadek zaufania publicznego do zaawansowanych narzędzi technologicznych. Ten sceptycyzm wobec zdolności AI do wykrywania i ograniczania dezinformacji stawia pod znakiem zapytania skuteczność i akceptację narzędzi, które mają zostać opracowane pod koniec projektu AI4Debunk.
Omówiono również wyzwania związane z wdrażaniem narzędzi opartych na sztucznej inteligencji w celu zwalczania dezinformacji. Istotnym problemem była bieżąca konserwacja, modernizacja i szkolenia wymagane dla tych narzędzi w okresie po zakończeniu projektu. Uczestnicy podkreślili znaczenie podejścia „human-in-the-loop”, które odnosi się do potrzeby etycznego podejmowania decyzji, umiejętności korzystania z mediów, adaptacyjnego systemu edukacji i inicjatyw w zakresie uczenia się przez całe życie.
Rola organizacji pozarządowych w przeciwdziałaniu dezinformacji została zbadana z wielu perspektyw. Łotwa posiada solidną sieć organizacji pozarządowych skupiających się na kwestiach związanych z ICT, które mogą odegrać zasadniczą rolę w rozpowszechnianiu wyników projektu AI4Debunk. We współpracy z zespołem projektowym organizacje pozarządowe mogłyby opracować dostosowane do potrzeb pakiety informacyjne dla różnych odbiorców. Ponadto organizacje pozarządowe mogłyby zaoferować cenny wgląd w konkretne potrzeby różnych grup docelowych w zakresie rozwiązań w zakresie sztucznej inteligencji.
Ogólnie rzecz biorąc, to spotkanie z udziałem wielu zainteresowanych stron okazało się bardzo konstruktywne. Służył on jako podstawa stałej współpracy i potencjalnych przyszłych partnerstw, aby skutecznie rozpowszechniać wyniki projektu AI4Debunk.




