Sæt stykkerne sammen: Hvorfor sproglige, medie- og amp; AI-dynamik og EU-politik skal mødes for at afsløre desinformation

I de seneste år er desinformation gået fra lejlighedsvise skud af "falske nyheder" til en systemisk trussel, der anvender sproglig manipulation, mediemekanismer, kunstig intelligens og tværnationale politiske strategier til at danne den offentlige mening og undergrave demokratiske processer. To forskningsområder, den ene vedrørende "mikromekanismerne" for desinformation og den anden vedrørende politiske og forvaltningsmæssige reaktioner på højt plan, er ofte forblevet adskilte. Det er på tide at bringe dem sammen.

Truslens anatomi: Sprog, mediemekanismer og generativ kunstig intelligens

Desinformationskampagner gennemføres på forskellige niveauer, som er indbyrdes forbundne, hvilket gør dem meget effektive (D'Andrea et al., 2025a). For det første anvendes manipulerende indhold på sprogniveau, som er baseret på følelser og polarisering, der påvirker opfattelser snarere end at informere. Det spredes derefter gennem mediernes og platformens forskellige mekanismer, som er baseret på brugernes kognitive bias, der tiltrækkes af sensationelt og polariserende indhold. Desuden gør fremkomsten af generativ kunstig intelligens dette problem særlig vigtigt, da det er muligt at producere meget troværdigt falsk indhold, hvilket er meget vanskeligt at opdage (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Dette har naturligvis meget vigtige konsekvenser for den offentlige sfære og påvirker politiske holdninger og beslutningsprocesser.

AI's rolle: Som risiko og som værktøj 

AI er et tveægget sværd. På den ene side fremmer generativ kunstig intelligens omfattende desinformationskampagner (Shoaib et al., 2023; Feuerriegel et al., 2023). På den anden side kan AI-værktøjer detektere, spore og bekæmpe manipulerende indhold, hvis de anvendes på en ansvarlig måde (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Teknikker omfatter tværsproglig detektion, netværksanalyse eller automatiserede rørledninger til faktatjek (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Desuden kan forklarlige AI-systemer bidrage til afsløring af deepfakes og analyse af netværksdiffusionsmønstre (Curtis et al., 2025; Truică & Apostol, 2022).

Hvorfor politik alene ikke er nok – men politik er stadig afgørende

Med hensyn til politik har Den Europæiske Union indført programmer såsom Det Europæiske Observationscenter for Digitale Medier (EDMO) og forordningen om digitale tjenester for at øge mediekendskabet, ansvarligheden og gennemsigtigheden blandt sine medlemsstater (Europa-Kommissionen, 2024, Sánchez Gonzales et al., 2024; D'Andrea et al., 2025b). Samarbejdsnetværk, der omfatter faktatjekkere, journalister og akademiske institutioner, er en integreret del af modvægten til dette i stor skala (Frau‑Meigs et al., 2025). De er normalt initiativer, der reagerer på problemet og dermed kontrollerer konsekvenserne af desinformation uden at tage fat på dens kognitive, sproglige eller algoritmiske rødder (Leite et al., 2025). De politikker, der er dannet uden at blive bakket op af forskning inden for områder som følelsesmæssig indramning, overbevisende strategier og AI-drevet forstærkning, risikerer at blive for brede eller ‌ ‌ spredt.

Sammenlægning af mikro- og makro-på vej mod en holistisk strategi

Effektiv afbødning af desinformation skal håndteres både på mikro- og makroniveau:

  • Overvågning på mikroniveau: Borgerne skal være i stand til at se manipulerende fortællinger, følelsesmæssigt indrammet og/eller algoritmisk forstærket indhold (Arribas et al., 2025).
  • Forvaltning på makroniveau: dette ville kræve lovgivningsmæssige rammer, der sikrer gennemsigtighed, platformes ansvarlighed, adgang til data for at muliggøre uafhængig analyse og den overordnede koordinering mellem EU's medlemsstater og faktatjeknetværk (Pilati & Venturini, 2025; Europa-Kommissionen, 2024).

Disse niveauer skal være i samtale med hinanden: politikudformningen bør baseres på forskning i, hvad der gør desinformation overbevisende, og forskningen bør opskaleres ved hjælp af strukturpolitiske værktøjer.

Mod demokratisk modstandsdygtighed: Hvad skal vi gøre?

Der er tre indbyrdes forbundne prioriteter:

  1. Tilskynde til tværfaglig forskning for at hjælpe med at identificere nye taktikker, teknikker og procedurer for desinformation, der hele tiden udvikler sig, for at forbedre afsløringen på tværs af sprog, kulturer og platforme (D'Andrea et al., 2025a; Arribas et al., 2025).
  2. Forpligte sig til mediekendskab og kritisk tænkning i stor skala og integrere det i skoler, lokalsamfundsprogrammer og offentlige kampagner (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
  3. Indføre og håndhæve strukturelle sikkerhedsforanstaltninger såsom due diligence-forpligtelser for onlineplatforme, kriseresponsmekanismer, mærkning af AI-genereret indhold og samarbejdsbaseret EU-dækkende tilsyn (Europa-Kommissionen, 2024, Pilati & Venturini, 2025).

Konklusion

Desinformation kan ikke bekæmpes gennem forskning eller regulering alene. en mere holistisk tilgang, der trækker indsigt fra lingvistik, kunstig intelligens, mediestudier og politik, er afgørende. Dette er kun gennem denne integration på niveauet for mikroforståelser af overtalelse med makroforvaltning og lovgivningsmæssige foranstaltninger, at samfund kan opbygge modstandsdygtighed for at beskytte demokratiske processer (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).

Henvisninger

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Forebyggende strategier til bekæmpelse af desinformation: En undersøgelse af digitale og informationskendskabsaktiviteter ledet af faktatjekkende organisationer. Open Research Europe, 5, 122.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Veracitet: En åben kilde AI Fact-Checking System. arXiv preprint arXiv: 2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Sproglig indsigt, mediemekanismer og AI's rolle i udbredelsen og virkningen af desinformation. Tidsskrift for information, kommunikation og etik i samfundet.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Gennemgang af politikken: bekæmpelse af desinformation i den digitale tidsalder – politikker og initiativer til beskyttelse af demokratiet i Europa. Informationspolitiet, 30(1), 82-91.

Europa-Kommissionen. (2024). Sandt eller falsk? Sådan forsvarer du dig mod desinformation Nyheder fra Kommissionen. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself- against-disinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025). Afkodning af autenticitet i AI-alderen: hvordan AI-genererede desinformationsbilleder og AI-detektionsværktøjer påvirker autenticitetsvurderinger. AI & SOCIETY, 1-12.

Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Forskning kan bidrage til at bekæmpe AI-genereret desinformation. Natur Menneskelig adfærd, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Bekæmpelse af desinformation gennem mediekendskab: Fra nuværende praksis til politikudformning i Europa. InMedia. Den franske Journal of Media Studies, (10).

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, maj). En tværgående undersøgelse af brugen af overtalelsesteknikker i forbindelse med desinformation på internettet. In Companion Proceedings of the ACM on Web Conference 2025 (s. 1100-1103).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Journalisters opfattelse af risici i forbindelse med kunstig intelligens og desinformation. Journalistik og medier, 6(3), 133.

Pilati, F., & Venturini, T. (2025). Anvendelse af kunstig intelligens til bekæmpelse af desinformation: En verdensomspændende (web) kortlægning. Grænser i statskundskab, 7, 1517726.

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Programmer for kunstig intelligens og desinformation, der anvendes af europæiske faktatjekkere. Catalansk Tidsskrift for Kommunikation & Kulturstudier, 16(2), 237-255.

Shukla, A. K., & Tripathi, S. (2024). AI-genereret misinformation i valgåret 2024: Den Europæiske Unions foranstaltninger. Grænser i statskundskab, 6, 1451601.

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, november). Deepfakes, misinformation og desinformation i en tid med kunstig intelligens, generativ kunstig intelligens og store AI-modeller. I 2023 blev der afholdt en international konference om computere og applikationer (ICCA) (s. 1-7). IEEE.

Truică, C. O., & Apostol, E. S. (2022). Misrobærta: Transformatorer kontra misinformation. Matematik, 10, stk. 4, 569.

Download hele artiklen i pdf her.

Om Alessia D'Andrea

IRPPS-forsker. Hendes forskning fokuserer på webteknologier, menneske-computer interaktion, samfundsvidenskab, markedsføring / virtuel forretning og sundhed.

Om Arianna D'Ulizia

IRPPS-forsker. Hendes forskningsinteresser omfatter social computing og interaktion mellem mennesker og computere, især naturlig og multimodal sprogbehandling og brugercentreret interaktionsdesign .

Se denne institutionelle video, der præsenterer AI4Debunks vision

Læs mere om AI4Debunk

EUalive afholdt en offentlig debat med det formål at undersøge, hvordan AI-drevne værktøjer kan støtte bestræbelserne på at bekæmpe falske nyheder og desinformation.
En debat med deltagelse af flere interessenter med titlen "The Use of Artificial Intelligence in Combating Disinformation" (Anvendelse af kunstig intelligens til bekæmpelse af desinformation), der blev afholdt af Letlands universitet, blev afholdt i Riga den 6. januar 2026.
Den 6. november 2025 fandt rundbordsdialogen med flere interessenter AI4DEBUNK sted i presseklubben i Bruxelles med deltagelse af mere end 20 eksperter.