Сглобяване на парчетата: Защо езиковата, медийната и амплификацията, динамиката на ИИ и политиката на ЕС трябва да се обединят, за да развенчаят дезинформацията

През последните години дезинформацията премина от случайни снимки на „фалшиви новини“ към системна заплаха, при която се използват езикови манипулации, медийни механизми, изкуствен интелект и транснационални политически стратегии за формиране на общественото мнение и подкопаване на демократичните процеси. Две направления на научните изследвания — едното, свързано с „микро“ механизмите за дезинформация, а другото — с ответните мерки на високо равнище в областта на политиката и управлението — често остават отделни. Време е да ги съберем заедно.

Анатомия на заплахата: Език, медийни механизми и генеративен ИИ

Кампаниите за дезинформация се осъществяват чрез различни равнища, които са взаимосвързани, което ги прави много ефективни (D’Andrea et al., 2025a). Първо, на ниво език се използва манипулативно съдържание, което се основава на емоции и поляризация, засягащи възприятията, а не информиращи. След това се разпространява чрез различните механизми на медиите и платформата, които се основават на когнитивните пристрастия на потребителите, които са привлечени от сензационно и поляризиращо съдържание. Освен това появата на генеративен ИИ прави този проблем особено важен, тъй като е възможно да се създаде голямо количество много правдоподобно невярно съдържание, което е много трудно за откриване (Shukla & Tripathi, 2024 г.; Pilati & Venturini, 2025 г.; Shoaib et al., 2023 г.). Това, разбира се, има много важни последици за публичната сфера, засягащи политическите мнения и процесите на вземане на решения.

Ролята на ИИ: Като риск и като инструмент 

Изкуственият интелект е меч с две остриета. От една страна, генеративният ИИ улеснява широкомащабните кампании за дезинформация (Shoaib et al., 2023 г.; Feuerriegel et al., 2023 г.). От друга страна, инструментите с ИИ могат да откриват, проследяват и противодействат на манипулативно съдържание, ако се използват по отговорен начин (Curtis et al., 2025 г.; Truică & Апостол, 2022 г.; Leite et al., 2025 г.). Техниките включват многоезично откриване, мрежов анализ или автоматизирани тръбопроводи за проверка на фактите (Peña-Alonso et al., 2025 г.; Shukla & Tripathi, 2024 г.). Освен това обяснимите системи с ИИ могат да допринесат за откриването на дълбинни фалшификати и за анализа на моделите на мрежова дифузия (Curtis et al., 2025 г.; Truică & Apostol, 2022 г.).

Защо политиката сама по себе си не е достатъчна, но политиката все още е от съществено значение

Що се отнася до политиката, Европейският съюз въведе програми като Европейската обсерватория за цифрови медии (EDMO) и Законодателния акт за цифровите услуги с цел повишаване на медийната грамотност, отчетността и прозрачността сред своите държави членки (Европейска комисия, 2024 г.; Sánchez Gonzales и др., 2024 г.; D’Andrea et al., 2025b). Мрежите за сътрудничество, които включват проверители на факти, журналисти и академични институции, са неразделна част от противодействието на това в голям мащаб (Frau‑Meigs et al., 2025 г.). Обикновено това са инициативи, които отговарят на проблема и по този начин контролират последиците от дезинформацията, без да разглеждат нейните когнитивни, езикови или алгоритмични корени (Leite et al., 2025 г.). Политиките, които се формират, без да бъдат подкрепени от изследвания в области като емоционално рамкиране, убедителни стратегии и усилване, задвижвано от ИИ, имат риск да бъдат твърде широки или ‌‌разпръснати.

Сливане на микро и макро към цялостна стратегия

Ефективното смекчаване на дезинформацията трябва да се разглежда както на микро-, така и на макроравнище:

  • Бдителност на микроравнище: гражданите трябва да могат да забелязват манипулативни послания, емоционално оформено и/или алгоритмично усилено съдържание (Arribas et al., 2025 г.).
  • Макроравнище на управление: това би наложило регулаторни рамки, които осигуряват прозрачност, отчетност на платформите, достъп до данни, за да се даде възможност за независим анализ, и цялостна координация между държавите — членки на ЕС, и мрежите за проверка на фактите (Pilati & Venturini, 2025 г.; Европейска комисия, 2024 г.).

Тези нива трябва да бъдат в разговор помежду си: разработването на политики следва да се основава на научни изследвания за това какво прави дезинформацията убедителна, а научните изследвания следва да се разширяват чрез инструменти на структурната политика.

Към демократична устойчивост: Какво трябва да направим?

Възникват три взаимносвързани приоритета:

  1. Насърчаване на интердисциплинарните изследвания, за да се помогне за идентифицирането на нови тактики, техники и процедури за дезинформация, които непрекъснато се развиват, за да се подобри откриването на различни езици, култури и платформи (D’Andrea et al., 2025a; Arribas et al., 2025 г.).
  2. да се ангажират с широкомащабна медийна грамотност и критично мислене, като ги интегрират в училища, общностни програми и обществени кампании (Frau‑Meigs et al., 2025 г.; Sánchez Gonzales и др., 2024 г.).
  3. Въвеждане и прилагане на структурни гаранции, като например задължения за надлежна прозрачност за онлайн платформите, механизми за реагиране при кризи, етикетиране на генерирано от ИИ съдържание и съвместен надзор в целия ЕС (Европейска комисия, 2024 г.; Pilati & Venturini, 2025 г.).

Заключение

Дезинформацията не може да бъде победена само чрез научни изследвания или регулиране; от съществено значение е по-цялостен подход, който черпи информация от лингвистиката, ИИ, медийните проучвания и политиката. Само чрез тази интеграция на равнището на микроразбиране на убеждаването с макроуправление и регулаторни мерки обществата могат да изградят устойчивост за защита на демократичните процеси (Shukla & Tripathi, 2024 г.; Farooq & de Vreese, 2025 г.).

Препратки

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025 г.). Превантивни стратегии за борба с дезинформацията: Проучване на дейностите в областта на цифровата и информационната грамотност, ръководено от организации за проверка на фактите. Open Research Europe (Отворени научни изследвания в Европа), 5, 122.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Истинност: Система за проверка на фактите с изкуствен интелект с отворен код. arXiv preprint arXiv:2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Езикови познания, медийни механизми и роля на ИИ в разпространението и въздействието на дезинформацията. Списание за информация, комуникация и етика в обществото.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Преглед на политиката: борба с дезинформацията в цифровата ера — политики и инициативи за защита на демокрацията в Европа. Information Polity, 30(1), 82-91.

Европейска комисия. (2024). Вярно или невярно? Как да се защитим от дезинформацията. Новини от Комисията. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025 г.). Дешифриране на автентичността в ерата на ИИ: как генерираните от ИИ дезинформационни изображения и инструментите за откриване на ИИ влияят върху преценката на автентичността. AI & ОБЩЕСТВО, 1—12.

Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023 г.). Научните изследвания могат да помогнат за справяне с дезинформацията, генерирана от ИИ. Природа Човешко поведение, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025 г.). Борба с дезинформацията чрез медийна грамотност: От настоящите практики до изготвянето на политики в Европа. В медиите. Френски вестник за медийни изследвания, (10).

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025 г., май). Междусекторно проучване на използването на техники за убеждаване в онлайн дезинформацията. В придружаващото производство на ACM относно уебконференцията през 2025 г. (стр. 1100—1103).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025 г.). Възприятията на журналистите за изкуствения интелект и рисковете от дезинформация. Журналистика и медии, 6(3), 133.

Pilati, F., & Venturini, T. (2025 г.). Използването на изкуствен интелект в борбата с дезинформацията: Картографиране в световен мащаб (уеб). Граници в политическите науки, 7, 1517726.

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024 г.). Програми за грамотност в областта на изкуствения интелект и дезинформацията, използвани от европейските проверители на факти. Catalan Journal of Communication & Културни изследвания, 16(2), 237-255.

Shukla, A. K., & Tripathi, S. (2024 г.). Генерирана от ИИ невярна информация през изборната 2024 година: мерките на Европейския съюз. Frontiers in Political Science (Граници в политическите науки), 6, 1451601.

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023 г., ноември). Дълбоките фалшификати, невярната информация и дезинформацията в ерата на граничния ИИ, генеративния ИИ и големите модели на ИИ. През 2023 г. Международна конференция за компютри и приложения (ICCA) (стр. 1—7). ИЕЕ.

Truică, C. O., & Apostol, E. S. (2022 г.). Misrobærta: Трансформатори срещу дезинформация. Математика, 10(4), 569.

Изтеглете пълната статия в pdf тук.

За Алесия Д’Андреа

Изследовател на IRPPS. Нейните изследвания се фокусират върху уеб технологиите, взаимодействието човек-компютър, социалните науки, маркетинга / виртуалния бизнес и здравето.

За Ариана Д’Улиция

Изследовател на IRPPS. Изследователските й интереси включват социални изчисления и взаимодействие човек-компютър, особено естествена и мултимодална езикова обработка и потребителски ориентиран дизайн на взаимодействието .

Гледайте този институционален видеоклип, представящ визията на AI4Debunk

Още от AI4Debunk

Мини симпозиумът AI4Debunk: ИИ и дезинформацията — технологии, медийна грамотност и политика ще проучат предизвикателствата и възможностите, които изкуственият интелект носи в борбата с дезинформацията.
EUalive организира обществена дискусия, насочена към проучване на начините, по които инструментите, задвижвани от ИИ, могат да подкрепят усилията за борба с фалшивите новини и дезинформацията.
На 6 януари 2026 г. в Рига се проведе дискусия с участието на множество заинтересовани страни, озаглавена „Използването на изкуствен интелект в борбата с дезинформацията“, организирана от Латвийския университет.