Punerea pieselor împreună: De ce lingvistica, mass-media și amplitudinea; Dinamica IA și politica UE trebuie să se unească pentru a demonta dezinformarea

În ultimii ani, dezinformarea a trecut de la fotografii ocazionale de „știri false” la o amenințare sistemică care utilizează manipularea lingvistică, mecanismele mass-mediei, inteligența artificială și strategiile politice transnaționale pentru a forma opinia publică și a submina procesele democratice. Două direcții de cercetare, una care se ocupă de mecanismele „micro” ale dezinformării, iar cealaltă cu răspunsuri politice și de guvernanță la nivel înalt, au rămas adesea separate. Este timpul să le aducem împreună.

Anatomia amenințării: Limbajul, mecanismele mass-media și IA generativă

Campaniile de dezinformare sunt realizate pe diferite niveluri, care sunt interconectate, ceea ce le face foarte eficace (D’Andrea et al., 2025a). În primul rând, la nivel de limbaj, se utilizează conținut manipulator, care se bazează pe emoții și polarizare, afectând mai degrabă percepțiile decât informarea. Acesta este apoi răspândit prin diferitele mecanisme ale mass-mediei și ale platformei, care se bazează pe prejudecățile cognitive ale utilizatorilor, care sunt atrași de conținutul senzațional și polarizant. În plus, apariția IA generative face ca această problemă să fie deosebit de importantă, deoarece este posibil să se producă un conținut fals foarte credibil, care este foarte dificil de detectat (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Acest lucru are, desigur, consecințe foarte importante pentru sfera publică, afectând opiniile politice și procesele decizionale.

Rolul IA: Ca risc și ca instrument 

AI este o sabie cu două tăișuri. Pe de o parte, IA generativă facilitează campaniile de dezinformare la scară largă (Shoaib et al., 2023; Feuerriegel et al., 2023). Pe de altă parte, instrumentele IA pot detecta, urmări și contracara conținutul manipulator dacă sunt utilizate într-un mod responsabil (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Printre tehnici se numără detectarea multilingvă, analiza rețelei sau conductele automatizate de verificare a faptelor (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). În plus, sistemele de IA explicabile pot contribui la detectarea deepfake-urilor și la analiza modelelor de difuzare în rețea (Curtis et al., 2025; Truică & Apostol, 2022).

De ce politica în sine nu este suficientă – dar politica este încă esențială

În ceea ce privește politica, Uniunea Europeană a instituit programe precum Observatorul european al mass-mediei digitale (EDMO) și Actul legislativ privind serviciile digitale pentru a spori educația în domeniul mass-mediei, responsabilitatea și transparența în rândul statelor sale membre (Comisia Europeană, 2024; Sánchez Gonzales et al., 2024; D’Andrea et al., 2025b). Rețelele de colaborare care includ verificatori ai veridicității informațiilor, jurnaliști și instituții academice sunt parte integrantă a contrabalansării acestui lucru la scară largă (Frau‑Meigs et al., 2025). Acestea sunt, de obicei, inițiative care răspund problemei și, prin urmare, controlează consecințele dezinformării fără a aborda rădăcinile sale cognitive, lingvistice sau algoritmice (Leite et al., 2025). Politicile care se formează fără a fi susținute de cercetare în domenii precum încadrarea emoțională, strategiile persuasive și amplificarea bazată pe IA au riscul de a fi prea largi sau ‌.

Fuzionarea Micro și Macro-Către o Strategie Holistică

Atenuarea eficace a dezinformării trebuie abordată atât la nivel micro, cât și la nivel macro:

  • Vigilență la nivel micro: cetățenii trebuie să devină capabili să detecteze discursuri manipulatoare, conținut încadrat emoțional și/sau amplificat algoritmic (Arribas et al., 2025).
  • Guvernanța la nivel macro: acest lucru ar necesita cadre de reglementare care să asigure transparența, responsabilitatea platformelor, accesul la date pentru a permite o analiză independentă și coordonarea generală între statele membre ale UE și rețelele de verificare a faptelor (Pilati & Venturini, 2025; Comisia Europeană, 2024).

Aceste niveluri trebuie să fie în conversație unul cu celălalt: elaborarea politicilor ar trebui să se bazeze pe cercetare cu privire la ceea ce face ca dezinformarea să fie convingătoare, iar cercetarea ar trebui să fie extinsă prin intermediul instrumentelor de politică structurală.

Către o reziliență democratică: Ce ar trebui să facem?

Apar trei priorități interconectate:

  1. Încurajarea cercetării interdisciplinare pentru a contribui la identificarea noilor tactici, tehnici și proceduri de dezinformare care evoluează continuu pentru a îmbunătăți detectarea în toate limbile, culturile și platformele (D’Andrea et al., 2025a; Arribas et al., 2025).
  2. angajarea în educația mediatică la scară largă și în gândirea critică, integrând-o în școli, programe comunitare și campanii publice (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
  3. Introducerea și asigurarea respectării garanțiilor structurale, cum ar fi obligațiile de transparență pentru platformele online, mecanismele de răspuns la criză, etichetarea conținutului generat de IA și supravegherea cooperativă la nivelul UE (Comisia Europeană, 2024; Pilati & Venturini, 2025).

Concluzie

Dezinformarea nu poate fi combătută doar prin cercetare sau reglementare; o abordare mai holistică, care să se bazeze pe lingvistică, IA, studii media și politici, este esențială. Numai prin această integrare la nivel de microînțelegere a persuasiunii cu macroguvernanța și măsurile de reglementare, societățile își pot consolida reziliența pentru a proteja procesele democratice (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).

Referințe

Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Strategii preventive împotriva dezinformării: Un studiu privind activitățile de alfabetizare digitală și informațională conduse de organizațiile de verificare a veridicității informațiilor. Open Research Europe (Cercetare deschisă în Europa), 5, 122.

Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Veridicitate: Un sistem de verificare a faptelor cu sursă deschisă. arXiv preprint arXiv:2506.15794.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Perspective lingvistice, mecanisme mass-media și rolul IA în diseminarea și impactul dezinformării. Jurnalul de Informare, Comunicare și Etică în Societate.

D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Revizuirea politicilor: combaterea dezinformării în era digitală – politici și inițiative de protejare a democrației în Europa. Politică informațională, 30(1), 82-91.

Comisia Europeană. (2024). Adevărat sau fals? Cum să vă apărați împotriva dezinformării. Știrile Comisiei https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?

Farooq, A., & de Vreese, C. (2025). Descifrarea autenticității în era IA: modul în care imaginile de dezinformare generate de IA și instrumentele de detectare a IA influențează judecățile privind autenticitatea. AI & amp; SOCIETATEA, 1-12 ani.

Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). Cercetarea poate contribui la combaterea dezinformării generate de IA. Natura Comportamentul uman, 7(11), 1818-1821.

Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Combaterea dezinformării prin educație în domeniul mass-mediei: De la practicile actuale la elaborarea politicilor în Europa. În mass-media. Jurnalul Francez de Studii Media, (10).

Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, mai). Un studiu intersectorial privind utilizarea tehnicilor de persuasiune în dezinformarea online. În Proceedings of the ACM on Web Conference 2025 (Procedurile însoțitoare ale Conferinței ACM privind webul 2025) (pp. 1100-1103).

Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Percepțiile jurnaliștilor cu privire la inteligența artificială și la riscurile de dezinformare. Jurnalism și mass-media, 6(3), 133.

Pilati, F., & Venturini, T. (2025). Utilizarea inteligenței artificiale în combaterea dezinformării: O cartografiere la nivel mondial (web). Frontiere în științe politice, 7, 1517726.

Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Programele de alfabetizare în domeniul inteligenței artificiale și al dezinformării utilizate de verificatorii europeni ai veridicității informațiilor. Catalană Journal of Communication & Cultural Studies, 16(2), 237-255.

Shukla, A. K., & Tripathi, S. (2024). Dezinformarea generată de IA în anul electoral 2024: măsurile Uniunii Europene. Frontiere în științe politice, 6, 1451601.

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, noiembrie). Deepfake-urile, dezinformarea și dezinformarea în era IA de frontieră, a IA generative și a modelelor mari de IA. În 2023, Conferința internațională privind computerele și aplicațiile (ICCA) (p. 1-7). IEEE.

Truică, C. O., & Apostol, E. S. (2022). Misrobærta: Transformatoare versus dezinformare. Matematică, 10(4), 569.

Descărcați articolul complet în format pdf aici.

Despre Alessia D’Andrea

Cercetător IRPPS. Cercetarea sa se concentrează asupra tehnologiilor web, interacțiunii om-calculator, științelor sociale, marketingului / afacerilor virtuale și sănătății.

Despre Arianna D’Ulizia

Cercetător IRPPS. Interesele sale de cercetare includ calculul social și interacțiunea om-calculator, în special procesarea limbajului natural și multimodal și designul interacțiunii centrate pe utilizator .

Urmăriți acest videoclip instituțional care prezintă viziunea AI4Debunk

Mai multe din AI4Debunk

EUalive a organizat o discuție publică menită să exploreze modul în care instrumentele bazate pe IA pot sprijini eforturile de combatere a știrilor false și a dezinformării.
O discuție multipartită intitulată „Utilizarea inteligenței artificiale în combaterea dezinformării”, organizată de Universitatea din Letonia, a avut loc la Riga la 6 ianuarie 2026.
La 6 noiembrie 2025, la Clubul de presă de la Bruxelles a avut loc masa rotundă multipartită AI4DEBUNK, care a reunit peste 20 de experți.