In den letzten Jahren hat sich die Desinformation von gelegentlichen Aufnahmen von „Fake News“ zu einer systemischen Bedrohung entwickelt, die sprachliche Manipulation, Medienmechanismen, künstliche Intelligenz und transnationale politische Strategien nutzt, um die öffentliche Meinung zu bilden und demokratische Prozesse zu untergraben. Zwei Forschungsbereiche, die sich zum einen mit den „Mikro“-Mechanismen von Desinformation und zum anderen mit politischen und Governance-Antworten auf hoher Ebene befassen, sind oft getrennt geblieben. Es ist Zeit, sie zusammenzubringen.
Die Anatomie der Bedrohung: Sprache, Medienmechanismen und generative KI
Desinformationskampagnen werden über verschiedene Ebenen durchgeführt, die miteinander verknüpft sind, was sie sehr effektiv macht (D’Andrea et al., 2025a). Erstens werden auf der Ebene der Sprache manipulative Inhalte verwendet, die auf Emotionen und Polarisierung basieren und die Wahrnehmung beeinflussen, anstatt zu informieren. Es wird dann durch die verschiedenen Mechanismen der Medien und der Plattform verbreitet, die auf den kognitiven Vorurteilen der Nutzer basieren, die von sensationellen und polarisierenden Inhalten angezogen werden. Darüber hinaus macht das Auftreten generativer KI dieses Problem besonders wichtig, da es möglich ist, sehr viele sehr glaubwürdige falsche Inhalte zu erstellen, die sehr schwer zu erkennen sind (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Dies hat natürlich sehr wichtige Folgen für die Öffentlichkeit und wirkt sich auf politische Meinungen und Entscheidungsprozesse aus.
Die Rolle der KI: Als Risiko und als Werkzeug
KI ist ein zweischneidiges Schwert. Einerseits erleichtert generative KI groß angelegte Desinformationskampagnen (Shoaib et al., 2023; Feuerriegel et al., 2023). Andererseits können KI-Tools manipulative Inhalte erkennen, verfolgen und bekämpfen, wenn sie verantwortungsvoll eingesetzt werden (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Zu den Techniken gehören die sprachübergreifende Erkennung, Netzwerkanalyse oder automatisierte Faktenüberprüfungspipelines (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Darüber hinaus können erklärbare KI-Systeme zur Erkennung von Deepfakes und zur Analyse von Netzwerkdiffusionsmustern beitragen (Curtis et al., 2025; Truică & Apostol, 2022).
Warum Politik allein nicht genug ist – aber Politik ist immer noch unerlässlich
In Bezug auf die Politik hat die Europäische Union Programme wie die Europäische Beobachtungsstelle für digitale Medien (EDMO) und das Gesetz über digitale Dienste eingeführt, um die Medienkompetenz, Rechenschaftspflicht und Transparenz zwischen ihren Mitgliedstaaten zu verbessern (Europäische Kommission, 2024; Sánchez Gonzales et al., 2024; D’Andrea et al., 2025b). Kollaborative Netzwerke, zu denen Faktenprüfer, Journalisten und akademische Einrichtungen gehören, sind ein wesentlicher Bestandteil, um dem in großem Maßstab entgegenzuwirken (Frau‑Meigs et al., 2025). Es handelt sich in der Regel um Initiativen, die auf das Problem reagieren und so die Folgen von Desinformation kontrollieren, ohne ihre kognitiven, sprachlichen oder algorithmischen Wurzeln zu berücksichtigen (Leite et al., 2025). Die Richtlinien, die gebildet werden, ohne durch Forschung in Bereichen wie emotionales Framing, überzeugende Strategien und KI-gesteuerte Verstärkung unterstützt zu werden, haben das Risiko, zu breit oder -gestreut zu sein.
Verschmelzung von Mikro- und Makro-Auf dem Weg zu einer ganzheitlichen Strategie
Sowohl auf der Mikro- als auch auf der Makroebene muss wirksam gegen Desinformation vorgegangen werden:
- Wachsamkeit auf Mikroebene: Die Bürger müssen in der Lage sein, manipulative Narrative, emotional gerahmte und/oder algorithmisch verstärkte Inhalte zu erkennen (Arribas et al., 2025).
- Governance auf Makroebene: dies würde Regulierungsrahmen erfordern, die Transparenz, Rechenschaftspflicht der Plattformen, Zugang zu Daten für unabhängige Analysen und die Gesamtkoordinierung zwischen den EU-Mitgliedstaaten und Fact-Checking-Netzwerken vorsehen (Pilati & Venturini, 2025; Europäische Kommission, 2024).
Diese Ebenen müssen miteinander im Gespräch sein: Die Politikgestaltung sollte sich auf die Forschung darüber stützen, was Desinformation überzeugend macht, und die Forschung sollte mithilfe strukturpolitischer Instrumente skaliert werden.
Demokratische Resilienz: Was sollten wir tun?
Es ergeben sich drei ineinandergreifende Prioritäten:
- Förderung interdisziplinärer Forschung zur Ermittlung neuartiger Taktiken, Techniken und Verfahren der Desinformation, die sich kontinuierlich weiterentwickeln, um die Erkennung über Sprachen, Kulturen und Plattformen hinweg zu verbessern (D’Andrea et al., 2025a; Arribas et al., 2025).
- sich zu groß angelegter Medienkompetenz und kritischem Denken verpflichten und diese in Schulen, Gemeinschaftsprogramme und öffentliche Kampagnen einbetten (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
- Einführung und Durchsetzung struktureller Schutzvorkehrungen wie Transparenzpflichten für Online-Plattformen, Krisenreaktionsmechanismen, Kennzeichnung von KI-generierten Inhalten und kooperative EU-weite Aufsicht (Europäische Kommission, 2024; Pilati & Venturini, 2025).
Schlussfolgerung
Desinformation kann nicht allein durch Forschung oder Regulierung besiegt werden; Ein ganzheitlicherer Ansatz, der auf Erkenntnisse aus Linguistik, KI, Medienwissenschaft und Politik zurückgreift, ist von wesentlicher Bedeutung. Nur durch diese Integration auf der Ebene des Mikroverständnisses der Überzeugung mit Makrogovernance und Regulierungsmaßnahmen können Gesellschaften Resilienz aufbauen, um demokratische Prozesse zu schützen (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).
Referenzen
Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Präventive Strategien gegen Desinformation: Eine Studie über Aktivitäten zur digitalen und Informationskompetenz unter der Leitung von Fact-Checking-Organisationen. Open Research Europe, 5, 122.
Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Richtigkeit: Ein Open-Source-KI-Fact-Checking-System. arXiv preprint arXiv:2506.15794.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Linguistische Erkenntnisse, Medienmechanismen und die Rolle der KI bei der Verbreitung und den Auswirkungen von Desinformation. Journal of Information, Communication and Ethics in Society.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Überprüfung der Politik: Bekämpfung von Desinformation im digitalen Zeitalter – Strategien und Initiativen zum Schutz der Demokratie in Europa. Information Polity, 30(1), 82-91.
Europäische Kommission. (2024). Wahr oder falsch? Wie Sie sich gegen Desinformation wehren können. Nachrichten der Kommission. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself- againstinst-disinformation-2024-10-23_en?
Farooq, A., & de Vreese, C. (2025). Entschlüsselung der Authentizität im Zeitalter der KI: wie KI-generierte Desinformationsbilder und KI-Erkennungsinstrumente die Beurteilung der Authentizität beeinflussen. AI & GESELLSCHAFT, 1-12.
Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Forschung kann dazu beitragen, KI-generierte Desinformation zu bekämpfen. Natur Menschliches Verhalten, 7(11), 1818-1821.
Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Bekämpfung von Desinformation durch Medienkompetenz: Von der aktuellen Praxis zur politischen Entscheidungsfindung in Europa. InMedien. In: The French Journal of Media Studies (10).
Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, Mai). Eine domänenübergreifende Studie über den Einsatz von Überzeugungstechniken bei Online-Desinformation. In: Companion Proceedings of the ACM on Web Conference 2025 (S. 1100-1103).
Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Die Wahrnehmung von künstlicher Intelligenz und Desinformationsrisiken durch Journalisten. Journalismus und Medien, 6(3), 133.
Pilati, F., & Venturini, T. (2025). Einsatz künstlicher Intelligenz bei der Bekämpfung von Desinformation: Ein weltweites (Web-)Mapping. Grenzen in der Politikwissenschaft, 7, 1517726.
Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Programme für künstliche Intelligenz und Desinformationskompetenz, die von europäischen Faktenprüfern genutzt werden. Catalan Journal of Communication & Cultural Studies, 16(2), 237-255.
Shukla, A. K. & Tripathi, S. (2024). KI-generierte Fehlinformationen im Wahljahr 2024: Maßnahmen der Europäischen Union. Grenzen in der Politikwissenschaft, 6, 1451601.
Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, November). Deepfakes, Fehlinformationen und Desinformation im Zeitalter von Frontier AI, generativer KI und großen KI-Modellen. 2023: Internationale Konferenz über Computer und Anwendungen (ICCA) (S. 1-7). IEEE.
Truică, C. O., & Apostol, E. S. (2022). Misrobærta: Transformatoren versus Fehlinformationen. Mathematik, 10(4), 569.
Vollständigen Artikel als PDF herunterladen hier.
Informationen zu Alessia D’Andrea
IRPPS-Forscher. Ihre Forschungsschwerpunkte sind Webtechnologien, Mensch-Computer-Interaktion, Sozialwissenschaften, Marketing/Virtual Business und Gesundheit.
Informationen zu Arianna D’Ulizia
IRPPS-Forscher. Ihre Forschungsinteressen umfassen Social Computing und Mensch-Computer-Interaktion, insbesondere natürliche und multimodale Sprachverarbeitung und nutzerzentriertes Interaktionsdesign .




