Under de senaste åren har desinformation gått från enstaka skott av ”falska nyheter” till ett systemhot som använder språklig manipulation, mediemekanismer, artificiell intelligens och transnationella politiska strategier för att bilda den allmänna opinionen och undergräva demokratiska processer. Två delar av forskningen, den ena om desinformationens ”mikromekanismer” och den andra om politiska åtgärder och styrningsåtgärder på hög nivå, har ofta förblivit åtskilda. Det är dags att föra dem samman.
Hotets anatomi: Språk, mediemekanismer och generativ AI
Desinformationskampanjer genomförs på olika nivåer som hänger samman med varandra, vilket gör dem mycket effektiva (D’Andrea m.fl., 2025a). För det första används manipulativt innehåll på språknivå, som bygger på känslor och polarisering, vilket påverkar uppfattningar snarare än att informera. Det sprids sedan genom de olika mekanismerna i media och plattformen, som bygger på användarnas kognitiva fördomar, som dras till sensationellt och polariserande innehåll. Dessutom gör uppkomsten av generativ AI detta problem särskilt viktigt, eftersom det är möjligt att producera en hel del mycket trovärdigt falskt innehåll, vilket är mycket svårt att upptäcka (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib m.fl., 2023). Detta har naturligtvis mycket viktiga konsekvenser för den offentliga sfären och påverkar politiska åsikter och beslutsprocesser.
AI:s roll: Som risk och verktyg
AI är ett tveeggat svärd. Å ena sidan underlättar generativ AI storskaliga desinformationskampanjer (Shoaib m.fl., 2023; Feuerriegel m.fl., 2023). Å andra sidan kan AI-verktyg upptäcka, spåra och motverka manipulativt innehåll om det används på ett ansvarsfullt sätt (Curtis m.fl., 2025; Truică & Apostol, 2022; Leite m.fl., 2025). Teknikerna omfattar flerspråkig detektering, nätverksanalys eller automatiserade faktagranskningsrörledningar (Peña-Alonso m.fl., 2025; Shukla & Tripathi, 2024). Förklarbara AI-system kan dessutom bidra till upptäckt av deepfakes och analys av nätverksdiffusionsmönster (Curtis m.fl., 2025; Truică & Apostol, 2022).
Varför det inte räcker med enbart politik – men politiken är fortfarande viktig
När det gäller politiken har EU infört program som det europeiska observatoriet för digitala medier (Edmo) och rättsakten om digitala tjänster för att öka mediekompetensen, ansvarsskyldigheten och transparensen bland medlemsländerna (Europeiska kommissionen, 2024; Sánchez Gonzales m.fl., 2024; D’Andrea m.fl., 2025b). Samarbetsnätverk som inkluderar faktagranskare, journalister och akademiska institutioner är integrerade för att motverka detta i stor skala (Frau‑Meigs et al., 2025). De är vanligtvis initiativ som svarar på problemet och därmed kontrollerar konsekvenserna av desinformation utan att ta itu med dess kognitiva, språkliga eller algoritmiska rötter (Leite et al., 2025). De policyer som bildas utan att backas upp av forskning inom områden som emotionell inramning, övertygande strategier och AI-driven förstärkning riskerar att bli för breda eller scattered.
Sammanslagning av mikro och makro mot en holistisk strategi
Effektiv begränsning av desinformation måste hanteras både på mikro- och makronivå:
- Övervakning på mikronivå: Medborgarna måste kunna upptäcka manipulativa narrativ, känslomässigt inramat och/eller algoritmiskt förstärkt innehåll (Arribas m.fl., 2025).
- Makronivåstyre: Detta skulle kräva regelverk som föreskriver transparens, plattformarnas ansvarsskyldighet, tillgång till data för att möjliggöra oberoende analys och den övergripande samordningen mellan EU:s medlemsstater och nätverk för faktagranskning (Pilati & Venturini, 2025; Europeiska kommissionen, 2024).
Dessa nivåer måste vara i samtal med varandra: Utformningen av politiken bör bygga på forskning om vad som gör desinformation övertygande, och forskningen bör skalas upp med hjälp av strukturpolitiska verktyg.
Mot demokratisk resiliens: Vad ska vi göra?
Tre sammankopplade prioriteringar framträder:
- Uppmuntra tvärvetenskaplig forskning för att bidra till att identifiera nya taktiker, tekniker och förfaranden för desinformation som ständigt utvecklas för att förbättra upptäckten över språk, kulturer och plattformar (D’Andrea m.fl., 2025a; Arribas m.fl., 2025).
- Engagera sig i storskalig mediekompetens och kritiskt tänkande och integrera det i skolor, samhällsprogram och offentliga kampanjer (Frau‑Meigs m.fl., 2025; Sánchez Gonzales m.fl., 2024).
- Införa och verkställa strukturella skyddsåtgärder, såsom krav på tillbörlig transparens för onlineplattformar, krishanteringsmekanismer, märkning av AI-genererat innehåll och samarbetsinriktad EU-omfattande tillsyn (Europeiska kommissionen, 2024; Pilati & Venturini, 2025).
Slutsats
Desinformation kan inte besegras enbart genom forskning eller reglering. En mer holistisk strategi som bygger på insikter från lingvistik, AI, mediestudier och politik är avgörande. Det är endast genom denna integrering på mikronivå av övertalning med makrostyrning och regleringsåtgärder som samhällen kan bygga upp motståndskraft för att skydda demokratiska processer (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).
Referenser
Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Förebyggande strategier mot desinformation: En studie om digital- och informationskompetens under ledning av faktagranskande organisationer. Open Research Europe, 5 och 122.
Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Veracitet: Ett AI-faktakontrollsystem med öppen källkod. arXiv preprint arXiv: 2506.15794.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Språkliga insikter, mediemekanismer och AI:s roll i spridningen och effekterna av desinformation. Journal of Information, kommunikation och etik i samhället.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Översyn av politiken: motverka desinformation i den digitala tidsåldern och initiativ för att skydda demokratin i Europa. Informationspolitet, 30(1), 82-91.
Europeiska kommissionen. (2024). Sant eller falskt? Hur man försvarar sig mot desinformation. Kommissionens nyheter. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?
Farooq, A., & de Vreese, C. (2025). Dechiffrera autenticitet i AI-åldern: hur AI-genererade desinformationsbilder och AI-detekteringsverktyg påverkar äkthetsbedömningar. AI & SAMHÄLLSVETENSKAP, 1-12.
Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Forskning kan bidra till att bekämpa AI-genererad desinformation. Natur Mänskligt beteende, 7(11), 1818-1821.
Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Bekämpning av desinformation genom mediekompetens: Från nuvarande praxis till beslutsfattande i Europa. InMedia. Den franska tidskriften för mediestudier, (10).
Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, maj). En ämnesövergripande studie av användningen av övertalningstekniker i desinformation på nätet. In Companion Proceedings of the ACM on Web Conference 2025 (s. 1100–1103).
Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Journalisternas uppfattningar om risker för artificiell intelligens och desinformation. Journalistik och medier, 6.3, 133.
Pilati, F., & Venturini, T. (2025). Användning av artificiell intelligens för att motverka desinformation: En världsomfattande (webb) kartläggning. Gränser i statsvetenskap, 7, 1517726.
Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Program för artificiell intelligens och desinformationskompetens som används av europeiska faktagranskare. Catalan Journal of Communication & Kulturstudier, 16(2), 237-255.
Shukla, A. K., & Tripathi, S. (2024). AI-genererad felaktig information under valåret 2024: Europeiska unionens åtgärder. Gränser i statsvetenskap, 6, 1451601.
Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, november). Deepfakes, desinformation och desinformation i en tid präglad av avancerad AI, generativ AI och stora AI-modeller. 2023 års internationella konferens om datorer och tillämpningar (ICCA) (s. 1–7). IEEE.
Truică, C. O., & Apostol, E. S. (2022). Misrobærta: transformatorer kontra desinformation. Matematik, 10(4), 569.
Ladda ner hela artikeln i pdf här.
Om Alessia D’Andrea
IRPPS-forskare. Hennes forskning fokuserar på webbteknik, människa-datorinteraktion, samhällsvetenskap, marknadsföring / virtuell verksamhet och hälsa.
Om Arianna D’Ulizia
IRPPS-forskare. Hennes forskningsintressen omfattar social databehandling och människa-datorinteraktion, särskilt naturlig och multimodal språkbehandling och användarcentrerad interaktionsdesign .




