Artykuł w opinii Pascaline Gaborit

Dezinformacja w erze cyfrowej

Organizacje międzynarodowe klasyfikują dezinformację jako jedno z głównych zagrożeń dla demokracji od ponad dekady. Technologie cyfrowe nieustannie na nowo odkrywają i dogłębnie zmieniają współczesny styl życia, otoczenie obywateli i środowiska biznesowe. Sztuczna inteligencja wprowadza nowe zakłócenia w sposobie, w jaki uzyskujemy dostęp do wiedzy oraz tworzymy, rozpowszechniamy i rozumiemy informacje, zacierając granice między prawdziwymi informacjami a zmanipulowanymi informacjami. 

Wpływ rewolucji cyfrowej na społeczeństwo

Rewolucja cyfrowa osiąga swój złoty wiek, kontynuując wcześniejsze przemiany, które miały miejsce w ciągu niecałej dekady. Do 2024 r. liczba właścicieli telefonów komórkowych na świecie ma wynieść 7,21 mld. Około 67% ludności świata ma obecnie dostęp do internetu – było to zaledwie 1% w 1995 r. Zmiany pojawiły się szybko jak tsunami, bez możliwości cofnięcia się lub przemyślenia ich przez ludzi, ani dla wszystkich zainteresowanych stron, aby dostosować umiejętności, kursy edukacyjne lub przekształcić różnorodne sektory gospodarki. Tendencje te wywołały niesamowity optymizm wśród europejskich decydentów (cyfryzacja UE, jednolity rynek cyfrowy, szybcy przedsiębiorcy itp.). Znalazło to jednak odzwierciedlenie w ukrytym pesymizmie wśród przegranych, którzy nie mogli nadrobić zaległości (tradycyjni inwestorzy, osoby starsze, zwolnieni pracownicy w sektorach zautomatyzowanych i osoby o niskich umiejętnościach informatycznych).

Korzyści przewrotu cyfrowego dla konsumentów i inwestorów biznesowych są kolosalne: możliwy jest bezpośredni dostęp do informacji, wiedzy i danych z całego świata. Łatwa do przetrawienia wiedza jest dostępna prawie wszędzie za pośrednictwem mediów społecznościowych, wyszukiwarek internetowych, selektywnych aplikacji, ale także edukacji online. Łączność jest bezgraniczna: platformy współpracy, w tym media społecznościowe, umożliwiły bezpośrednie powiązanie między ludźmi, ale także między potencjalnymi przedsiębiorcami a konsumentami. Logistykę znacznie ułatwia możliwość zamawiania dostaw, szybszego lub tańszego przemieszczania się, korzystania z GPS, geolokalizacji i natychmiastowych połączeń. Ponadto technologie cyfrowe z upodmiotowieniem AI oferują ogromny potencjał w zakresie znajdowania rozwiązań badawczych na potrzeby rozwoju zdrowia, klimatu i infrastruktury, w tym dla krajów słabiej rozwiniętych, aby mogły je przyjąć.

To prowadzi nas do wad i przeszkód, jeśli nie zagrożeń związanych z tą cyfrową rewolucją w dziedzinie sztucznej inteligencji. W rzeczywistości systemy opracowane przez sztuczną inteligencję „zwiększają możliwości tworzenia realistycznych fałszywych treści generowanych przez sztuczną inteligencję, ale także (…) ułatwiają rozpowszechnianie dezinformacji wśród (mikro) docelowych odbiorców i na dużą skalę przez zainteresowane strony działające w złych zamiarach” (Bontridder i Poullet 2021). Pojawiły się obawy dotyczące praw autorskich, stronniczych algorytmów, modeli biznesowych wykorzystujących masowe dane do oszukiwania osób fizycznych oraz zastępowania miejsc pracy/zatrudnienia technologią w wielu sektorach sztucznej inteligencji. Technologie AI ułatwią również korzystanie z wideo, tekstu i obrazu, generując treści oparte na fałszywych informacjach i stwarzając trudności dla osób fizycznych i mediów w zaufaniu do tych informacji (Newman 2024).

Źródło: Canva Pro

Reakcja UE: regulacje, cyberbezpieczeństwo i weryfikacja faktów

W przeciwieństwie do próżni spowodowanej brakiem regulacji w innych krajach demokratycznych, Unia Europejska (UE), a następnie państwa członkowskie UE, aktywnie rozwijają polityki i inicjatywy mające na celu zwalczanie dezinformacji, w szczególności w kontekście ochrony procesów demokratycznych, ochrony obywateli i promowania umiejętności korzystania z mediów. Te polityki i inicjatywy odzwierciedlają zobowiązanie UE do sprostania wieloaspektowemu wyzwaniu, jakim jest dezinformacja, i do ochrony wartości demokratycznych w epoce cyfrowej. Inicjatywy te są wzmacniane przez zatwierdzenie rozporządzenia w sprawie dezinformacji w większości państw członkowskich UE oraz przez ściślejszą współpracę między państwami członkowskimi UE w zakresie bezpieczeństwa cybernetycznego i wspólną współpracę w celu przeciwdziałania dezinformacji.

Ponadto obserwujemy trwające negocjacje między instytucjami UE a głównymi platformami internetowymi w celu znalezienia najlepszego sposobu zwalczania dezinformacji. Kwestia regulacji w porównaniu z autoregulacją jeszcze się nie skończyła i będzie wymagała dodatkowych zmian w ciągu najbliższych lat.

Odzwierciedla to jednak tylko część wysiłków na rzecz ochrony obywateli przed dezinformacją. UE i państwa członkowskie zainwestowały również w tworzenie agencji ds. cyberbezpieczeństwa w celu demaskowania masowych kampanii dezinformacyjnych oraz weryfikatorów informacji dla mediów (takich jak EDMO, Europejskie Obserwatorium Mediów Cyfrowych). Pomimo tego arsenału narzędzi dezinformacja pozostaje realnym zagrożeniem.

Istnieją niejasne granice między „demaskowaniem” dezinformacji przez podmioty prywatne a agencjami bezpieczeństwa narodowego. Podczas gdy obywatele są zachęcani do oglądania filmów wideo na temat rozpoznawania informacji wprowadzających w błąd i korzystania z weryfikatorów faktów, manipulacyjne kampanie dezinformacyjne są nadal raczej ujawniane przez krajowe agencje bezpieczeństwa i media. Na przykład francuska agencja Viginum została utworzona w 2021 r. w celu wykrywania ingerencji cyfrowych ze strony podmiotów zagranicznych. W lutym 2024 r. agencja odkryła ponad 193 strony internetowe rozpowszechniające dezinformację za pośrednictwem mediów społecznościowych i aplikacji do przesyłania wiadomości. Wydaje się, że nawet w przypadku agencji bezpieczeństwa scharakteryzowanie pochodzenia kampanii nie zawsze jest łatwe, w szczególności gdy dezinformacja lub informacje wprowadzające w błąd muszą pochodzić od obcych rządów, wrogich podmiotów lub prostych osób działających jako zakłócacze.

Ponadto wojna hybrydowa, której dezinformacja jest jedynie narzędziem, łączy cyberataki z masową dezinformacją, stwarzając ryzyko wrogiego wpływu na media, rządy, infrastrukturę publiczną, ale także społeczeństwo obywatelskie i sektor akademicki. I tu właśnie kryje się prawdziwe zagrożenie.

Źródło: Canva Pro

Przyszłe zagrożenia i wyzwania

Zagrożenie i niebezpieczeństwo dezinformacji polega na tym, że wykorzystuje ona polaryzację, emocje i stereotypy. Elementy, które sprawiają, że „fałszywe wiadomości” stają się wirusowe, zależą od ich interakcji z szeregiem kwestii powodujących podziały, które przemawiają do ciekawości lub konkretnych emocji w społeczeństwie. Spersonalizowane targetowanie, oparte na cechach osobistych lub psychologicznych, można łączyć z narzędziami Generowania Języków Naturalnych, aby tworzyć treści dla unikalnych użytkowników, potencjalnie prowadząc do aktywnej manipulacji.

Ponadto agresywne automatyczne rozpowszechnianie dezinformacji tuż przed rozpoczęciem kampanii politycznej może mieć negatywny wpływ na wyniki wyborów (Wade 2018). „Opierając się na gromadzeniu danych użytkowników i manipulowaniu nimi w celu przewidywania opinii politycznych i wyników wyborów wyborców oraz wywierania na nich wpływu, profilowanie użytkowników i mikrotargetowanie mogą stanowić zagrożenie dla demokracji, debaty publicznej i wyborów wyborców” (Kertysova 2018, Mont’Alverne i in. 2024). Kwestia ta jest niezwykle ważna, ponieważ ten rok 2024 będzie rokiem wyborów dla połowy ludności świata, a ingerencje są obecnie podejrzewane, ale nie są widoczne, ponieważ trudno jest znaleźć dowody.

Rewolucja cyfrowa, w tym sztuczna inteligencja, kształtuje przyszłość pełną niepewności, wymagającą nowych kompetencji, takich jak e-zarządzanie i umiejętności informatyczne. Chociaż technologia otwiera nowe możliwości i może prowadzić do pozytywnych transformacji w różnych sektorach, takich jak zdrowie, gospodarka lub wzmocnienie pozycji społeczeństwa obywatelskiego, przyczynia się również do erozji autorytetu i wartości, które są zastępowane przez niekończący się dostęp do informacji i łączności, w tym fałszywych i zmanipulowanych treści.

Ograniczenia mogą być również konieczne, aby zapobiec algorytmom lub botom dyktującym nasz styl życia i tworzącym przestrzeń do manipulacji wyborami. „Wielka zapora sieciowa” powinna chronić Europę przed cyberingerencjami i zmanipulowanymi treściami. Utrzymanie stabilności i zaufania do instytucji, systemów demokratycznych, mediów i struktur gospodarczych stanie się wyzwaniem w tym szybko zmieniającym się krajobrazie. Cyberbezpieczeństwo i walka z dezinformacją powinny być jednymi z najwyższych priorytetów.

Odniesienia

  • Noémi Bontridder i Yves Poullet Y, 2021, The role of artificial intelligence in disinformation [Rola sztucznej inteligencji w dezinformacji]. Polityka dotycząca danych i amp;, 3: e32. doi:10.1017/dap.2021.20
  • Katarina Kertysova, 2018, Sztuczna inteligencja i dezinformacja Jak sztuczna inteligencja zmienia sposób, w jaki dezinformacja jest produkowana, rozpowszechniana i może być zwalczana, bezpieczeństwo i prawa człowieka 29 (2018) 55-81
  • Camila Mont’Alverne, Sumitra Badrinathan, Amy, Ross Arguedas, Benjamin Toff, Richard Fletcher i Rasmus Kleis Nielsen, „The Trust Gap: Jak i dlaczego wiadomości na platformach cyfrowych są postrzegane bardziej sceptycznie niż wiadomości w ogóle, Reuters Institute https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2022-09/MontAlverne_et_al_The_Trust_Gap.pdf
  • Nic Newman, 2024 „Digital News Project: Dziennikarstwo, media i technologia: Trends and Prediction”, Uniwersytet Oksfordzki, Reuters Institute, https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2024-01/Newman%20-%20Trends%20and%20Predictions%202024%20FINAL.pdf
  • Michael Wade, „Psychographics: The Behavioural Analysis That Helped Cambridge Ana­lytica Know Voters’ Minds” [„Analiza behawioralna, która pomogła Cambridge Ana­lytica poznać umysły wyborców”], The Conversation, 21 marca 2018 r., https://theconversation .com/psychographics-the-behavioural-analysis-that-helped-cambridge-analytica-know -voters-minds-93675

Pobierz cały artykuł w pdf tutaj.

O GABORITIE PASKALINY

Pascaline Gaborit jest badaczką, konsultantką, ekspertką i trenerką. Posiada tytuł doktora nauk politycznych na temat „Zaufanie i konflikty”. Jest założycielką think tanku/organizacji pozarządowej. Pilot4DEV i pracuje jako konsultant w zakresie oceny / oceny jakości różnych programów i projektów międzynarodowych.

Opublikowała książki i artykuły na temat współpracy międzynarodowej, odporności, kultury, rozwoju, równości płci i przystosowania się do zmiany klimatu. Przez ponad 12 lat była dyrektorem międzynarodowej sieci Pilot Cities i pracowała jako doradca dla innych ośrodków analitycznych.

Obecnie pracuje nad projektami związanymi z badaniami i działaniami w zakresie odporności, zrównoważonego rozwoju, przystosowania się do zmiany klimatu, dialogu, fałszywych informacji, sztucznej inteligencji, praw człowieka i demokracji.

Obejrzyj film instytucjonalny przedstawiający wizję AI4Debunk

Więcej o AI4Debunk

EUalive zorganizowało publiczną dyskusję mającą na celu zbadanie, w jaki sposób narzędzia oparte na sztucznej inteligencji mogą wspierać wysiłki na rzecz zwalczania fałszywych informacji i dezinformacji.
W ostatnich latach dezinformacja przeszła od okazjonalnych ujęć „fałszywych informacji” do systemowego zagrożenia, które wykorzystuje manipulacje językowe, mechanizmy medialne, sztuczną inteligencję i transnarodowe strategie polityczne do
6 stycznia 2026 r. w Rydze odbyła się wielostronna dyskusja pt. „Wykorzystanie sztucznej inteligencji w zwalczaniu dezinformacji”, zorganizowana przez Uniwersytet Łotewski.