Nos últimos anos, a desinformação passou de imagens ocasionais de «notícias falsas» para uma ameaça sistémica que utiliza manipulação linguística, mecanismos de comunicação social, inteligência artificial e estratégias políticas transnacionais para formar a opinião pública e comprometer os processos democráticos. Duas vertentes de investigação, uma que trata dos «micro» mecanismos de desinformação e a outra com respostas políticas e de governação de alto nível, mantiveram-se frequentemente separadas. É tempo de os unir.
A Anatomia da Ameaça: Linguagem, mecanismos de comunicação social e IA generativa
As campanhas de desinformação são realizadas através de vários níveis, que estão interligados, tornando-as muito eficazes (D’Andrea et al., 2025a). Primeiro, no nível da linguagem, utiliza-se conteúdo manipulador, que se baseia em emoções e polarização, afetando percepções em vez de informar. Difunde-se então através dos vários mecanismos dos media e da plataforma, que se baseiam nos vieses cognitivos dos utilizadores, que são atraídos para conteúdos sensacionalistas e polarizadores. Além disso, o aparecimento da IA generativa torna este problema particularmente importante, uma vez que é possível produzir uma grande quantidade de conteúdos falsos muito credíveis, o que é muito difícil de detetar (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Isto, naturalmente, tem consequências muito importantes para a esfera pública, afectando as opiniões políticas e os processos de tomada de decisão.
O papel da IA: Como o risco e como a ferramenta
A IA é uma espada de dois gumes. Por um lado, a IA generativa facilita campanhas de desinformação em grande escala (Shoaib et al., 2023; Feuerriegel et al., 2023). Por outro lado, as ferramentas de IA podem detetar, rastrear e combater conteúdos manipuladores se utilizados de forma responsável (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). As técnicas incluem a deteção multilingue, a análise de redes ou condutas automatizadas de verificação de factos (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Além disso, os sistemas de IA explicáveis podem contribuir para a deteção de falsificações profundas e a análise de padrões de difusão da rede (Curtis et al., 2025; Truică & Apostol, 2022).
Por que razão a política por si só não é suficiente — mas a política continua a ser essencial
Em termos de política, a União Europeia criou programas como o Observatório Europeu dos Meios de Comunicação Digitais (EDMO) e o Regulamento Serviços Digitais para aumentar a literacia mediática, a responsabilização e a transparência entre os seus Estados-Membros (Comissão Europeia, 2024; Sánchez Gonzales et al., 2024; D’Andrea et al., 2025b). As redes colaborativas que incluem verificadores de factos, jornalistas e instituições académicas são fundamentais para contrabalançar esta situação em grande escala (Frau‑Meigs et al., 2025). São geralmente iniciativas que respondem ao problema e, por conseguinte, controlam as consequências da desinformação sem abordar as suas raízes cognitivas, linguísticas ou algorítmicas (Leite et al., 2025). As políticas que são formadas sem serem apoiadas por pesquisas em domínios como enquadramento emocional, estratégias persuasivas e amplificação impulsionada pela IA têm o risco de serem muito amplas ou dispersas.
Fusão Micro e Macro-Rumo a uma Estratégia Holística
A atenuação eficaz da desinformação deve ser abordada tanto a nível micro como macro:
- Vigilância a micronível: os cidadãos devem tornar-se capazes de detetar narrativas manipuladoras, conteúdos emocionalmente enquadrados e/ou algorítmicamente amplificados (Arribas et al., 2025).
- Governação a nível macro: tal exigiria quadros regulamentares que prevejam a transparência, a responsabilização das plataformas, o acesso aos dados para permitir uma análise independente e a coordenação global entre os Estados-Membros da UE e as redes de verificação de factos (Pilati & Venturini, 2025; Comissão Europeia, 2024).
Estes níveis precisam estar em conversa uns com os outros: a conceção das políticas deve basear-se na investigação sobre o que torna a desinformação persuasiva e a investigação deve ser alargada através de instrumentos de política estrutural.
Rumo a uma resiliência democrática: O que devemos fazer?
Surgem três prioridades interligadas:
- Incentivar a investigação interdisciplinar para ajudar a identificar novas táticas, técnicas e procedimentos de desinformação que estejam em constante evolução para melhorar a deteção em todas as línguas, culturas e plataformas (D’Andrea et al., 2025a; Arribas et al., 2025).
- Comprometer-se com a literacia mediática e o pensamento crítico em grande escala, incorporando-os nas escolas, nos programas comunitários e nas campanhas públicas (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
- Introduzir e aplicar salvaguardas estruturais, tais como obrigações de devida transparência para as plataformas em linha, mecanismos de resposta a situações de crise, rotulagem de conteúdos gerados por IA e supervisão cooperativa a nível da UE (Comissão Europeia, 2024; Pilati & Venturini, 2025).
Conclusão
A desinformação não pode ser contrariada apenas pela investigação ou pela regulamentação; é essencial uma abordagem mais holística que tire partido dos conhecimentos linguísticos, da IA, dos estudos sobre os meios de comunicação social e das políticas. Só através desta integração ao nível das microcompreensões de persuasão com medidas de macrogovernação e regulamentares é que as sociedades podem reforçar a resiliência para salvaguardar os processos democráticos (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).
Referências
Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Estratégias preventivas contra a desinformação: A Study on Digital and Information Literacy Activities Led by Fact-Checking Organisations (não traduzido para português). Open Research Europe, 5, 122.
Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Veracidade: Um sistema de verificação de factos de IA de fonte aberta. arXiv preprint arXiv:2506.15794.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Conhecimentos linguísticos, mecanismos dos meios de comunicação social e papel da IA na divulgação e no impacto da desinformação. Journal of Information, Communication and Ethics in Society (em inglês).
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Revisão da política: combater a desinformação na era digital – Políticas e iniciativas para salvaguardar a democracia na Europa. Política de informação, 30(1), 82-91.
Comissão Europeia. (2024). Verdadeiro ou falso? Como se defender contra a desinformação? Notícias da Comissão. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?
Farooq, A., & de Vreese, C. (2025). Decifrar a autenticidade na era da IA: a forma como as imagens de desinformação geradas pela IA e as ferramentas de deteção da IA influenciam os juízos de autenticidade. IA & SOCIEDADE, 1-12.
Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). A investigação pode ajudar a combater a desinformação gerada pela IA. Natureza Comportamento Humano, 7(11), 1818-1821.
Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Combater a desinformação através da literacia mediática: Das práticas atuais à elaboração de políticas na Europa. InMedia (em inglês). The French Journal of Media Studies, (10) (em inglês).
Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, May). Um estudo transversal sobre a utilização de técnicas de persuasão na desinformação em linha. Nos Anais de Acompanhamento da ACM sobre a Conferência Web 2025 (pp. 1100-1103).
Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). A perceção que os jornalistas têm da inteligência artificial e dos riscos de desinformação. Jornalismo e Meios de Comunicação Social, 6(3), 133.
Pilati, F., & Venturini, T. (2025). A utilização da inteligência artificial na luta contra a desinformação: Um mapeamento à escala mundial (web). Frontiers in Political Science, 7, 1517726 (em inglês).
Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Programas de literacia em matéria de inteligência artificial e desinformação utilizados pelos verificadores de factos europeus. Catalan Journal of Communication & Cultural Studies, 16(2), 237-255 (em inglês).
Shukla, A. K., & Tripathi, S. (2024). Desinformação gerada pela IA no ano eleitoral de 2024: medidas da União Europeia. Frontiers in Political Science, 6, 1451601.
Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, novembro). Falsificações profundas, desinformação e desinformação na era da IA de fronteira, da IA generativa e dos grandes modelos de IA. Em 2023, conferência internacional sobre informática e aplicações (ICCA) (pp. 1-7). IEEE.
Truică, C. O., & Apostol, E. S. (2022). Misrobærta: Transformadores contra a desinformação. Matemática, 10(4), 569.
Transferir o artigo completo em pdf aqui.
Acerca de Alessia D’Andrea
Investigador do IRPPS. A sua investigação centra-se em tecnologias web, interação humano-computador, ciências sociais, marketing/negócio virtual e saúde.
Sobre Arianna D’Ulizia
Investigador do IRPPS. Os seus interesses de investigação incluem computação social e interação humano-computador, particularmente processamento de linguagem natural e multimodal e design de interação centrado no utilizador .




