En los últimos años, la desinformación ha pasado de las tomas ocasionales de «noticias falsas» a una amenaza sistémica que utiliza la manipulación lingüística, los mecanismos de los medios de comunicación, la inteligencia artificial y las estrategias políticas transnacionales para formar la opinión pública y socavar los procesos democráticos. Dos líneas de investigación, una relativa a los «micro» mecanismos de desinformación y la otra a las respuestas políticas y de gobernanza de alto nivel, a menudo han permanecido separadas. Es hora de unirlos.
La anatomía de la amenaza: Lenguaje, mecanismos de medios e IA generativa
Las campañas de desinformación se llevan a cabo a través de varios niveles, que están interrelacionados, por lo que son muy eficaces (D’Andrea et al., 2025a). En primer lugar, a nivel del lenguaje, se utiliza contenido manipulador, que se basa en las emociones y la polarización, afectando las percepciones en lugar de informar. Luego se difunde a través de los diversos mecanismos de los medios y la plataforma, que se basan en los sesgos cognitivos de los usuarios, que se sienten atraídos por el contenido sensacionalista y polarizador. Además, la aparición de IA generativa hace que este problema sea particularmente importante, ya que es posible producir una gran cantidad de contenido falso muy creíble, que es muy difícil de detectar (Shukla & Tripathi, 2024; Pilati & Venturini, 2025; Shoaib et al., 2023). Esto, por supuesto, tiene consecuencias muy importantes para la esfera pública, afectando las opiniones políticas y los procesos de toma de decisiones.
El papel de la IA: Como riesgo y como herramienta
La IA es una espada de doble filo. Por un lado, la IA generativa facilita campañas de desinformación a gran escala (Shoaib et al., 2023; Feuerriegel et al., 2023). Por otra parte, las herramientas de IA pueden detectar, rastrear y contrarrestar el contenido manipulador si se utilizan de manera responsable (Curtis et al., 2025; Truică & Apostol, 2022; Leite et al., 2025). Las técnicas incluyen la detección multilingüe, el análisis de redes o las tuberías automatizadas de verificación de datos (Peña-Alonso et al., 2025; Shukla & Tripathi, 2024). Además, los sistemas de IA explicables pueden contribuir a la detección de falsificaciones profundas y al análisis de los patrones de difusión de la red (Curtis et al., 2025; Truică & Apostol, 2022).
Por qué la política por sí sola no es suficiente, pero la política sigue siendo esencial
En términos de política, la Unión Europea ha puesto en marcha programas como el Observatorio Europeo de Medios Digitales (EDMO) y la Ley de Servicios Digitales para aumentar la alfabetización mediática, la rendición de cuentas y la transparencia entre sus Estados miembros (Comisión Europea, 2024; Sánchez Gonzales et al., 2024; D’Andrea et al., 2025b). Las redes colaborativas que incluyen verificadores de hechos, periodistas e instituciones académicas son integrales para contrarrestar esto a escala (Frau‑Meigs et al., 2025). Por lo general, son iniciativas que responden al problema y, por lo tanto, controlan las consecuencias de la desinformación sin abordar sus raíces cognitivas, lingüísticas o algorítmicas (Leite et al., 2025). Las políticas que se forman sin estar respaldadas por la investigación en dominios como el encuadre emocional, las estrategias persuasivas y la amplificación impulsada por la IA tienen el riesgo de ser demasiado amplias o dispersas.
Fusión de micro y macro hacia una estrategia holística
La mitigación efectiva de la desinformación debe abordarse tanto a nivel micro como macro:
- Vigilancia a micronivel: los ciudadanos deben ser capaces de detectar narrativas manipuladoras, contenido enmarcado emocionalmente o amplificado algorítmicamente (Arribas et al., 2025).
- Gobernanza a nivel macroeconómico: esto requeriría marcos reguladores que prevean la transparencia, la rendición de cuentas de las plataformas, el acceso a los datos para permitir un análisis independiente y la coordinación general entre los Estados miembros de la UE y las redes de verificación de datos (Pilati & Venturini, 2025; Comisión Europea, 2024).
Estos niveles deben estar en conversación entre sí: el diseño de las políticas debe basarse en la investigación sobre lo que hace que la desinformación sea persuasiva, y la investigación debe ampliarse a través de herramientas de política estructural.
Hacia la resiliencia democrática: ¿Qué debemos hacer?
Surgen tres prioridades interrelacionadas:
- Fomentar la investigación interdisciplinaria para ayudar a identificar nuevas tácticas, técnicas y procedimientos de desinformación que evolucionan continuamente para mejorar la detección en todas las lenguas, culturas y plataformas (D’Andrea et al., 2025a; Arribas et al., 2025).
- Comprometerse con la alfabetización mediática y el pensamiento crítico a gran escala, incorporándolo en las escuelas, los programas comunitarios y las campañas públicas (Frau‑Meigs et al., 2025; Sánchez Gonzales et al., 2024).
- Introducir y hacer cumplir salvaguardias estructurales, como las obligaciones de transparencia debida para las plataformas en línea, los mecanismos de respuesta a las crisis, el etiquetado de los contenidos generados por la IA y la supervisión cooperativa a escala de la Unión (Comisión Europea, 2024; Pilati & Venturini, 2025).
Conclusión
La desinformación no puede ser derrotada solo por la investigación o la regulación; un enfoque más holístico que extraiga información de la lingüística, la IA, los estudios de los medios de comunicación y las políticas es esencial. Esto es solo a través de esta integración a nivel de microentendimientos de persuasión con macrogobernanza y medidas regulatorias que las sociedades pueden construir resiliencia para salvaguardar los procesos democráticos (Shukla & Tripathi, 2024; Farooq & de Vreese, 2025).
Referencias
Arribas, C. M., Gertrudix, M., & Arcos, R. (2025). Estrategias preventivas contra la desinformación: A Study on Digital and Information Literacy Activities led by Fact-Checking Organisations (en inglés). Open Research Europe, 5, 122.
Curtis, T. L., Touzel, M. P., Garneau, W., Gruaz, M., Pinder, M., Wang, L. W., … & Pelrine, K. (2025). Veracidad: Un sistema de verificación de datos de IA de fuente abierta. arXiv preprint arXiv:2506.15794.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025a). Perspectivas lingüísticas, mecanismos de los medios de comunicación y papel de la IA en la difusión y el impacto de la desinformación. Revista de Información, Comunicación y Ética en la Sociedad.
D’Andrea, A., Fusacchia, G., & D’Ulizia, A. (2025b). Revisión de políticas: la lucha contra la desinformación en la era digital: políticas e iniciativas para salvaguardar la democracia en Europa. Información Polity, 30(1), 82-91.
Comisión Europea. (2024). ¿Verdadero o falso? Cómo defenderse contra la desinformación. Noticias de la Comisión. https://commission.europa.eu/news-and-media/news/true-or-false-how-defend-yourself-against-disinformation-2024-10-23_en?
Farooq, A., & de Vreese, C. (2025). Descifrar la autenticidad en la era de la IA: cómo influyen las imágenes de desinformación generadas por la IA y las herramientas de detección de la IA en los juicios de autenticidad. AI & SOCIEDAD, 1-12.
Feuerriegel, S., DiResta, R., Goldstein, J. A., Kumar, S., Lorenz-Spreen, P., Tomz, M., & Pröllochs, N. (2023). La investigación puede ayudar a hacer frente a la desinformación generada por la IA. Comportamiento humano de la naturaleza, 7(11), 1818-1821.
Frau-Meigs, D., Corbu, N., & Osuna-Acedo, S. (2025). Lucha contra la desinformación mediante la alfabetización mediática: De las prácticas actuales a la elaboración de políticas en Europa. InMedia (en inglés). The French Journal of Media Studies, (10).
Leite, J. A., Razuvayevskaya, O., Scarton, C., & Bontcheva, K. (2025, mayo). Un estudio transversal del uso de técnicas de persuasión en la desinformación en línea. En Companion Proceedings of the ACM on Web Conference 2025 (pp. 1100-1103).
Peña-Alonso, U., Peña-Fernández, S., & Meso-Ayerdi, K. (2025). Percepciones de los periodistas sobre la inteligencia artificial y los riesgos de desinformación. Periodismo y medios de comunicación, 6(3), 133.
Pilati, F., & Venturini, T. (2025). El uso de la inteligencia artificial en la lucha contra la desinformación: Un mapeo mundial (web). Fronteras en Ciencias Políticas, 7, 1517726.
Sánchez Gonzales, H. M., González, M. S., & Alonso-González, M. (2024). Programas de alfabetización en materia de inteligencia artificial y desinformación utilizados por los verificadores de datos europeos. Revista Catalana de Comunicación & Estudios Culturales, 16(2), 237-255.
Shukla, A. K., & Tripathi, S. (2024). Desinformación generada por la IA en el año electoral 2024: medidas de la Unión Europea. Fronteras en Ciencias Políticas, 6, 1451601.
Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023, noviembre). Deepfakes, desinformación y desinformación en la era de la IA fronteriza, la IA generativa y los grandes modelos de IA. En 2023, conferencia internacional sobre informática y aplicaciones (ICCA) (pp. 1-7). IEEE (en inglés).
Truică, C. O., & Apostol, E. S. (2022). Misrobærta: transformadores versus desinformación. Matemáticas, 10(4), 569.
Descargar artículo completo en pdf aquí.
Acerca de Alessia D’Andrea
Investigador de IRPPS. Su investigación se centra en tecnologías web, interacción humano-computadora, ciencias sociales, marketing / negocios virtuales y salud.
Acerca de Arianna D’Ulizia
Investigador del IRPPS. Sus intereses de investigación incluyen la computación social y la interacción humano-computadora, particularmente el procesamiento del lenguaje natural y multimodal y el diseño de interacción centrada en el usuario .




