Zestawianie kawałków razem: Dlaczego językoznawstwo, media & Dynamika AI i polityka UE muszą połączyć siły w celu dezinformacji

W ostatnich latach dezinformacja zmieniła się z okazjonalnych ujęć „fałszywych informacji” w zagrożenie systemowe, które wykorzystuje manipulacje językowe, mechanizmy medialne, sztuczną inteligencję i transnarodowe strategie polityczne do kształtowania opinii publicznej i podważania procesów demokratycznych. Dwa kierunki badań – jeden dotyczący „mikro” mechanizmów dezinformacji, a drugi dotyczący działań politycznych i działań w zakresie zarządzania na wysokim szczeblu – często pozostawały odrębne. Nadszedł czas, aby je połączyć.

Anatomia zagrożenia: Język, mechanizmy medialne i generatywna sztuczna inteligencja

Kampanie dezinformacyjne są realizowane na różnych poziomach, które są ze sobą powiązane, co czyni je bardzo skutecznymi (D’Andrea i in., 2025a). Po pierwsze, na poziomie języka stosuje się treści manipulacyjne, które opierają się na emocjach i polaryzacji, wpływając na percepcję, a nie informując. Następnie rozprzestrzenia się za pośrednictwem różnych mechanizmów mediów i platformy, które opierają się na uprzedzeniach poznawczych użytkowników, którzy są przyciągani do sensacyjnych i polaryzujących treści. Ponadto pojawienie się generatywnej sztucznej inteligencji sprawia, że problem ten jest szczególnie istotny, ponieważ możliwe jest stworzenie wielu bardzo wiarygodnych fałszywych treści, które są bardzo trudne do wykrycia (Shukla & Tripathi, 2024; Pilati & Venturini, 2025 r.; Shoaib i in., 2023). Ma to oczywiście bardzo ważne konsekwencje dla sfery publicznej, wpływając na opinie polityczne i procesy decyzyjne.

Rola sztucznej inteligencji: Jako narzędzie i jako narzędzie 

Sztuczna inteligencja to miecz obosieczny. Z jednej strony generatywna AI ułatwia kampanie dezinformacyjne na dużą skalę (Shoaib i in., 2023; Feuerriegel i in., 2023). Z drugiej strony narzędzia AI mogą wykrywać, śledzić i przeciwdziałać treściom manipulacyjnym, jeżeli są wykorzystywane w odpowiedzialny sposób (Curtis i in., 2025; Truică & Apostol, 2022; Leite i in., 2025). Techniki obejmują wykrywanie w różnych językach, analizę sieci lub zautomatyzowane rurociągi weryfikacji faktów (Peña-Alonso i in., 2025; Shukla & Tripathi, 2024). Ponadto wyjaśnialne systemy sztucznej inteligencji mogą przyczynić się do wykrywania deepfake'ów i analizy wzorców dyfuzji sieci (Curtis i in., 2025; Truică & Apostol, 2022).

Dlaczego sama polityka nie wystarczy – ale polityka jest nadal niezbędna

Jeśli chodzi o politykę, Unia Europejska wprowadziła programy takie jak Europejskie Obserwatorium Mediów Cyfrowych (EDMO) i akt o usługach cyfrowych w celu zwiększenia umiejętności korzystania z mediów, rozliczalności i przejrzystości wśród państw członkowskich (Komisja Europejska, 2024; Sánchez Gonzales i in., 2024; D’Andrea i in., 2025b). Sieci współpracy obejmujące weryfikatorów faktów, dziennikarzy i instytucje akademickie są integralną częścią równoważenia tego na dużą skalę (Frau‑Meigs i in., 2025). Są to zazwyczaj inicjatywy, które reagują na problem, a tym samym kontrolują konsekwencje dezinformacji bez zajmowania się jej korzeniami poznawczymi, językowymi lub algorytmicznymi (Leite i in., 2025). Zasady, które są tworzone bez wsparcia badań w takich dziedzinach, jak kadrowanie emocjonalne, strategie perswazyjne i amplifikacja oparta na sztucznej inteligencji, mogą być zbyt szerokie lub rozproszone.

Połączenie mikro i makro w kierunku holistycznej strategii

Skuteczne łagodzenie dezinformacji należy zwalczać zarówno na poziomie mikro, jak i makro:

  • Czujność na poziomie mikro: obywatele muszą stać się zdolni do dostrzegania narracji manipulacyjnych, treści oprawionych emocjonalnie lub amplifikowanych algorytmicznie (Arribas i in., 2025).
  • Zarządzanie na poziomie makro: wymagałoby to ram regulacyjnych zapewniających przejrzystość, rozliczalność platform, dostęp do danych umożliwiający niezależną analizę oraz ogólną koordynację między państwami członkowskimi UE i sieciami weryfikacji faktów (Pilati & Venturini, 2025; Komisja Europejska, 2024 r.).

Poziomy te muszą być w rozmowie ze sobą: kształtowanie polityki powinno opierać się na badaniach nad tym, co sprawia, że dezinformacja jest przekonująca, a badania powinny być skalowane za pomocą narzędzi polityki strukturalnej.

W kierunku odporności demokratycznej: Co powinniśmy zrobić?

Pojawiają się trzy powiązane ze sobą priorytety:

  1. Zachęcanie do interdyscyplinarnych badań, aby pomóc w określeniu nowatorskich taktyk, technik i procedur dezinformacji, które stale ewoluują w celu poprawy wykrywania we wszystkich językach, kulturach i platformach (D’Andrea i in., 2025a; Arribas i in., 2025).
  2. Zobowiązanie się do umiejętności korzystania z mediów na dużą skalę i krytycznego myślenia poprzez włączenie ich do szkół, programów społecznościowych i kampanii publicznych (Frau‑Meigs i in., 2025; Sánchez Gonzales i in., 2024).
  3. Wprowadzenie i egzekwowanie zabezpieczeń strukturalnych, takich jak obowiązki platform internetowych w zakresie należytej przejrzystości, mechanizmy reagowania kryzysowego, etykietowanie treści generowanych przez sztuczną inteligencję oraz współpracujący ogólnounijny nadzór (Komisja Europejska, 2024; Pilati & Venturini, 2025).

Wnioski

Dezinformacji nie da się pokonać samymi badaniami lub regulacjami. zasadnicze znaczenie ma bardziej całościowe podejście, które opiera się na lingwistyce, sztucznej inteligencji, badaniach nad mediami i polityce. Tylko dzięki tej integracji na poziomie mikrorozumienia perswazji z makrozarządzaniem i środkami regulacyjnymi społeczeństwa mogą budować odporność w celu ochrony procesów demokratycznych (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).

Odniesienia

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Strategie zapobiegania dezinformacji: Badanie dotyczące działań w zakresie umiejętności cyfrowych i informacyjnych prowadzone przez organizacje sprawdzające fakty. „Otwarte badania naukowe w Europie”, 5, 122.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Wierność: Otwarty system kontroli faktów AI. arXiv preprint arXiv:2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Spostrzeżenia językowe, mechanizmy medialne i rola sztucznej inteligencji w rozpowszechnianiu dezinformacji i jej wpływie. Journal of Information, Communication and Ethics in Society (Dziennik Informacji, Komunikacji i Etyki w Społeczeństwie).

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Przegląd polityki: przeciwdziałanie dezinformacji w epoce cyfrowej i inicjatywy na rzecz ochrony demokracji w Europie. Informacja Polity, 30(1), 82-91.

Komisja Europejska. (2024). Prawda czy fałsz? Jak bronić się przed dezinformacją? Wiadomości Komisji. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025). Rozszyfrowywanie autentyczności w epoce sztucznej inteligencji: w jaki sposób obrazy dezinformacyjne generowane przez sztuczną inteligencję i narzędzia wykrywania sztucznej inteligencji wpływają na osąd autentyczności. AI & SOCIETY, 1–12.

Feuerriegel, S., DiResta, R., Goldstein, J.A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Badania naukowe mogą pomóc w zwalczaniu dezinformacji generowanej przez sztuczną inteligencję. Natura Zachowanie człowieka, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Zwalczanie dezinformacji poprzez umiejętność korzystania z mediów: Od obecnych praktyk po kształtowanie polityki w Europie. InMedia (ang.). The French Journal of Media Studies (ang.).

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, maj). Międzydomenowe badanie wykorzystania technik perswazji w dezinformacji w internecie. W postępowaniu towarzyszącym konferencji ACM on Web w 2025 r. (s. 1100–1103).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Postrzeganie przez dziennikarzy zagrożeń związanych ze sztuczną inteligencją i dezinformacją. Dziennikarstwo i media, 6(3), 133.

Pilati, F., & Venturini, T. (2025). Wykorzystanie sztucznej inteligencji w przeciwdziałaniu dezinformacji: Mapowanie na całym świecie (web). Granice w naukach politycznych, 7, 1517726.

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Programy w zakresie sztucznej inteligencji i umiejętności dezinformacji wykorzystywane przez europejskich weryfikatorów informacji. Catalan Journal of Communication & Cultural Studies, 16(2), s. 237–255.

Shukla, AK, & Tripathi, S. (2024). Informacje wprowadzające w błąd wygenerowane przez sztuczną inteligencję w roku wyborczym 2024: środków Unii Europejskiej. Granice w naukach politycznych, 6, 1451601.

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, listopad). Deepfake, dezinformacja i dezinformacja w erze pionierskiej sztucznej inteligencji, generatywnej sztucznej inteligencji i dużych modeli sztucznej inteligencji. W 2023 r. odbyła się międzynarodowa konferencja na temat komputerów i aplikacji (ICCA) (s. 1–7). IEEE, właśc.

Truică, C.O., & Apostol, E.S. (2022). Misrobærta: Transformatory kontra dezinformacja. Matematyka, 10(4), 569.

Pobierz cały artykuł w pdf tutaj.

Informacje na temat Alessia D’Andrea

IRPPS Researcher (ang.). Jej badania koncentrują się na technologiach internetowych, interakcjach człowiek-komputer, naukach społecznych, marketingu / wirtualnym biznesie i zdrowiu.

Informacje na temat Arianna D’Ulizia

Badacz IRPPS. Jej zainteresowania badawcze obejmują informatykę społeczną i interakcję człowiek-komputer, w szczególności przetwarzanie języka naturalnego i multimodalnego oraz projektowanie interakcji zorientowane na użytkownika ..

Obejrzyj film instytucjonalny przedstawiający wizję AI4Debunk

Więcej o AI4Debunk

EUalive zorganizowało publiczną dyskusję mającą na celu zbadanie, w jaki sposób narzędzia oparte na sztucznej inteligencji mogą wspierać wysiłki na rzecz zwalczania fałszywych informacji i dezinformacji.
6 stycznia 2026 r. w Rydze odbyła się wielostronna dyskusja pt. „Wykorzystanie sztucznej inteligencji w zwalczaniu dezinformacji”, zorganizowana przez Uniwersytet Łotewski.
6 listopada 2025 r. w brukselskim klubie prasowym odbył się wielostronny okrągły stół AI4DEBUNK, w którym wzięło udział ponad 20 ekspertów.