В последние годы дезинформация перешла от случайных снимков “fake news” к системной угрозе, которая использует лингвистические манипуляции, медиа-механизмы, искусственный интеллект и транснациональные политические стратегии для формирования общественного мнения и подрыва демократических процессов. Два направления исследований, одно из которых касалось механизмов дезинформации “micro”, а другое - высокоуровневых политических и управленческих ответов, часто оставались отдельными. Пришло время объединить их.
Анатомия угрозы: Язык, медиа-механизмы и генеративный ИИ
Кампании по дезинформации проводятся на различных уровнях, которые взаимосвязаны, что делает их очень эффективными (D’Andrea et al., 2025a). Во-первых, на уровне языка используется манипулятивный контент, который основан на эмоциях и поляризации, влияя на восприятие, а не на информирование. Затем он распространяется через различные механизмы средств массовой информации и платформы, которые основаны на когнитивных предубеждениях пользователей, которых привлекает сенсационный и поляризационный контент. Кроме того, появление генеративного ИИ делает эту проблему особенно важной, поскольку можно создать много очень правдоподобного ложного контента, который очень трудно обнаружить (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Это, конечно, имеет очень важные последствия для общественной сферы, влияя на политические мнения и процессы принятия решений.
Роль ИИ: Как риск и как инструмент
ИИ - это обоюдоострый меч. С одной стороны, генеративный ИИ способствует широкомасштабным кампаниям дезинформации (Shoaib et al., 2023; Feuerriegel et al., 2023). С другой стороны, инструменты ИИ могут обнаруживать, отслеживать и противодействовать манипулятивному контенту, если они используются ответственным образом (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Методы включают кросс-языковое обнаружение, сетевой анализ или автоматизированные конвейеры проверки фактов (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Более того, объяснимые системы ИИ могут способствовать обнаружению deepfakes и анализу моделей диффузии сети (Curtis et al., 2025; Truică & Apostol, 2022).
« Why Policy Alone Is Not Enough — But Policy Is Still Essential» (недоступная ссылка - история).
С точки зрения политики, Европейский Союз внедрил такие программы, как Европейская обсерватория цифровых медиа (EDMO) и Закон о цифровых услугах, чтобы повысить медиаграмотность, подотчетность и прозрачность среди своих государств-членов (Европейская комиссия, 2024; Санчес Гонсалес и др., 2024 год; D’Andrea et al., 2025b). Совместные сети, которые включают проверки фактов, журналистов и академические учреждения, являются неотъемлемой частью уравновешивания этого в масштабе (Frau‑Meigs et al., 2025). Обычно это инициативы, которые реагируют на проблему и, таким образом, контролируют последствия дезинформации, не обращаясь к ее когнитивным, лингвистическим или алгоритмическим корням (Leite et al., 2025). Политики, которые формируются без поддержки исследований в таких областях, как эмоциональное обрамление, убедительные стратегии и усиление, управляемое ИИ, рискуют быть слишком широкими или разбросанными.
Слияние микро- и макро-к целостной стратегии
Эффективное смягчение дезинформации должно решаться как на микро-, так и на макроуровне:
- Микро-уровень бдительности: граждане должны стать способными распознавать манипулятивные нарративы, эмоционально оформленный и / или алгоритмически усиленный контент (Arribas et al., 2025).
- b) управление на макроуровне: Это потребует создания нормативно-правовой базы, обеспечивающей прозрачность, подотчетность платформ, доступ к данным для проведения независимого анализа и общую координацию между государствами-членами ЕС и сетями проверки фактов (Pilati & Venturini, 2025; Европейская комиссия, 2024 г.).
Эти уровни должны быть в разговоре друг с другом: Разработка политики должна основываться на исследованиях того, что делает дезинформацию убедительной, а исследования должны быть масштабированы с помощью инструментов структурной политики.
На пути к демократической устойчивости: Что нам делать?
Возникают три взаимосвязанных приоритета:
- Поощрять междисциплинарные исследования, чтобы помочь определить новые тактики, методы и процедуры дезинформации, которые постоянно развиваются, чтобы улучшить обнаружение на разных языках, культурах и платформах (D’Andrea et al., 2025a; Arribas et al., 2025).
- Приверженность крупномасштабной медиаграмотности и критическому мышлению, встраивая его в школы, общественные программы и общественные кампании (Frau‑Meigs et al., 2025; Санчес Гонсалес и др., 2024 год).
- Внедрять и применять структурные гарантии, такие как обязательства по обеспечению должной прозрачности для онлайн-платформ, механизмы реагирования на кризисные ситуации, маркировка контента, генерируемого ИИ, и совместный надзор в масштабах всего ЕС (Европейская комиссия, 2024 год); Pilati & Venturini, 2025).
А. Заключение
Дезинформация не может быть побеждена только исследованиями или регулированием; Необходим более целостный подход, который черпает понимание из лингвистики, ИИ, медиа-исследований и политики. Только благодаря такой интеграции на уровне микропонимания убеждения с макроуправлением и мерами регулирования общества могут создать устойчивость для защиты демократических процессов (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).
Категория: Ссылки
Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Профилактические стратегии борьбы с дезинформацией: Исследование о деятельности в области цифровой и информационной грамотности под руководством организаций по проверке фактов. Open Research Europe, 5, 122.
Curtis, T.L., Touzel, M.P., Garneau, W., Gruaz, M., Pinder, M., Wang, L.W., … & Pelrine, K. (2025). b) достоверность: Система проверки фактов AI с открытым исходным кодом. arXiv препринт arXiv:2506.15794.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Лингвистические идеи, медиа-механизмы и роль ИИ в распространении и воздействии дезинформации. Журнал информации, коммуникации и этики в обществе.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Обзор политики: Противодействие дезинформации в цифровую эпоху - политика и инициативы по защите демократии в Европе. Информационная политика, 30(1), 82-91.
b) Европейская комиссия. (2024). Правда или ложь? Как защитить себя от дезинформации. Новости комиссии. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself- Against-disinformation-2024-10-23_ru?
Farooq, A., & de Vreese, C. (2025). Расшифровка подлинности в эпоху ИИ: Как изображения дезинформации, генерируемые ИИ, и инструменты обнаружения ИИ влияют на суждения о подлинности. AI & ОБЩЕСТВО, 1-12.
Feuerriegel, S., DiResta, R., Goldstein, J.A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Исследования могут помочь в борьбе с дезинформацией, генерируемой ИИ. Nature Human Behaviour, 7(11), 1818-1821.
Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Борьба с дезинформацией с помощью медиаграмотности: От текущей практики к разработке политики в Европе. В средствах массовой информации. «Французский журнал медиаисследований» (10).
Leite, J.A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, май). Междоменное исследование использования методов убеждения в онлайн-дезинформации. В сборнике Companion Proceedings of the ACM on Web Conference 2025 (стр. 1100-1103).
Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Journalists’ восприятие рисков искусственного интеллекта и дезинформации. Журналистика и СМИ, 6(3), 133.
Pilati, F., & Venturini, T. (2025). Использование искусственного интеллекта в борьбе с дезинформацией: Всемирное (веб) картографирование. Границы в политической науке, 7, 1517726.
Санчес Гонсалес, Х.М., Гонсалес, М.С., & Алонсо-Гонсалес, М. (2024). Программы грамотности в области искусственного интеллекта и дезинформации, используемые европейскими специалистами по проверке фактов. Catalan Journal of Communication & Cultural Studies, 16(2), 237-255.
Shukla, A. K., & Tripathi, S. (2024). Сгенерированная ИИ дезинформация в год выборов 2024: Меры Европейского Союза. Границы в политической науке, 6, 1451601.
Shoaib, M.R., Wang, Z., Ahvanooey, M.T., & Zhao, J. (2023, ноябрь). Глубокие фейки, дезинформация и дезинформация в эпоху пограничного ИИ, генеративного ИИ и больших моделей ИИ. В 2023 году состоялась международная конференция по компьютерам и приложениям (ICCA) (стр. 1-7). IEEE.
Truică, C. O., & Apostol, E. S. (2022). Misrobærta (англ.)русск.: Трансформаторы против дезинформации. Математика, 10(4), 569.
Скачать полную статью в pdf Сюда можно зайти.
О компании Alessia D’Andrea
Исследователь ИРППС. Ее исследования сосредоточены на веб-технологиях, взаимодействии человека с компьютером, социальных науках, маркетинге / виртуальном бизнесе и здоровье.
О компании Arianna D’Ulizia
Исследователь IRPPS. Ее исследовательские интересы включают социальные вычисления и взаимодействие человека с компьютером, в частности, обработку естественного и мультимодального языка и ориентированный на пользователя дизайн взаимодействия .




