Uniwersytet Łotewski gości wielostronną dyskusję na temat wykorzystania sztucznej inteligencji w zwalczaniu dezinformacji
Dyskusja z udziałem wielu zainteresowanych stron pt. „Wykorzystanie sztucznej inteligencji w zwalczaniu dezinformacji”, zorganizowane przez Uniwersytet Łotewski, odbyło się w Rydze 6 stycznia 2026 r. Wydarzenie zgromadziło naukowców, twórców technologii i praktyków w celu wprowadzenia projektu AI4Debunk oraz wspierania dogłębnej wymiany informacji na temat obecnych wyzwań i skutecznych narzędzi przeciwdziałania dezinformacji i fałszywym informacjom.
Dyskusja miała na celu zapoznanie uczestników z celami, podejściem metodologicznym i wstępnymi wynikami projektu AI4Debunk, a także zachęcenie do refleksji nad szerszymi społecznymi, technologicznymi i etycznymi implikacjami wykorzystania sztucznej inteligencji w przeciwdziałaniu dezinformacji. Program obejmował prezentacje na temat celów projektu i wczesnych ustaleń, pokazy na żywo opracowywanych narzędzi opartych na sztucznej inteligencji oraz interaktywną dyskusję na temat praktycznych i filozoficznych aspektów łagodzenia dezinformacji.
Spotkanie otworzyła profesor Inna Šteinbuka, która przedstawiła projekt AI4Debunk, wyjaśniając, że celem tego projektu jest opracowanie narzędzi sztucznej inteligencji w celu ochrony społeczeństwa przed dezinformacją poprzez zintegrowanie wiedzy technicznej specjalistów w dziedzinie sztucznej inteligencji z wiedzą socjologów, w tym politologów i socjologów. Szczególną uwagę poświęca się dezinformacji związanej z wojną w Ukrainie i zmianą klimatu.
Jednym z kluczowych wyzwań, na które zwrócono uwagę, było szybkie tempo rozwoju technologicznego, które stwarza ryzyko, że narzędzia staną się przestarzałe i będą wymagały ciągłej adaptacji. Projekt jest również realizowany w złożonym kontekście geopolitycznym, w którym wysiłki na rzecz przeciwdziałania dezinformacji mogą być postrzegane jako potencjalne ograniczenia wolności wypowiedzi.
Rozwiązania techniczne opracowane w ramach projektu przedstawił Franc van der Bent z Uniwersytetu w Utrechcie. Zademonstrował kilka narzędzi będących obecnie w fazie rozwoju, w tym wtyczkę do przeglądarki, która ma umożliwić użytkownikom weryfikację treści internetowych – zarówno tekstu, jak i obrazów – poprzez analizę ich spójności z innymi źródłami informacji w celu zidentyfikowania potencjalnych deepfake'ów lub dezinformacji. Ponadto platforma współpracy Disinfopedia został wprowadzony jako przestrzeń interakcji z chatbotem opartym na sztucznej inteligencji, dyskusji na temat bieżących wiadomości i zgłaszania podejrzanych treści, które są następnie weryfikowane przez ekspertów.
Dalsze demonstracje obejmowały aplikację na smartfony zdolną do analizy treści tekstowych, graficznych, dźwiękowych i wideo, a także środowisko edukacyjne rzeczywistości wirtualnej, TruthSpace, którego celem jest zwiększenie umiejętności cyfrowych wśród młodych ludzi poprzez interaktywną rozgrywkę. Podejście techniczne kładzie nacisk na zwinny rozwój, modułową architekturę systemu z wykorzystaniem kontenerów Docker, dostępność i efektywność kosztową. Oprogramowanie zostanie wydane na podstawie licencji publicznej Unii Europejskiej (EUPL 1.2), wspierającej przejrzystość i korzystanie z otwartego oprogramowania.
W dalszej dyskusji poruszono kwestie zaangażowania publicznego, cyberbezpieczeństwa, zrównoważonego rozwoju po zakończeniu projektu w 2027 r. oraz roli krytycznego myślenia w skutecznym wykorzystaniu rozwiązań technologicznych. Uczestnicy podkreślili, że chociaż edukacja i umiejętność korzystania z mediów o krytycznym znaczeniu nadal mają zasadnicze znaczenie – zwłaszcza w dobie coraz bardziej wyrafinowanych deepfake'ów wideo i audio – sztuczna inteligencja oferuje znaczny potencjał wspierania społeczeństwa w połączeniu z ludzką wiedzą fachową. Narzędzia oparte na sztucznej inteligencji opracowane w ramach projektu zostały podkreślone ze względu na ich zdolność do terminowej, dostępnej i wieloformatowej analizy treści tekstowych, graficznych, audio i wideo. Badacze projektu zademonstrowali innowacyjne podejścia, w tym pasywne ostrzeżenia w stylu antywirusowym i interaktywne środowiska edukacyjne, które mogą zmniejszyć bariery w weryfikacji i wzmocnić umiejętności cyfrowe w różnych grupach użytkowników. Możliwości adaptacyjne, projektowanie oparte na otwartym oprogramowaniu i interdyscyplinarne podstawy narzędzi zostały przedstawione jako kluczowe atuty, umożliwiające ciągłe doskonalenie, zrównoważony rozwój i długoterminowy wpływ społeczny.







