La Universidad de Letonia organiza un debate multilateral sobre el uso de la inteligencia artificial en la lucha contra la desinformación
Debate entre múltiples interesados sobre el tema «El uso de la inteligencia artificial en la lucha contra la desinformación», organizada por la Universidad de Letonia, se celebró en Riga el 6 de enero de 2026. El evento reunió a investigadores, desarrolladores de tecnología y profesionales para presentar el proyecto AI4Debunk y fomentar un intercambio en profundidad sobre los desafíos actuales y las herramientas efectivas para abordar la desinformación y las noticias falsas.
El debate tenía por objeto familiarizar a los participantes con los objetivos, el enfoque metodológico y los resultados iniciales del proyecto AI4Debunk, al tiempo que fomentaba la reflexión sobre las implicaciones sociales, tecnológicas y éticas más amplias del uso de la inteligencia artificial para contrarrestar la desinformación. El programa incluyó presentaciones sobre los objetivos y las primeras conclusiones del proyecto, demostraciones en directo de herramientas basadas en la IA en desarrollo y un debate interactivo sobre aspectos prácticos y filosóficos de la mitigación de la desinformación.
La reunión fue inaugurada por la profesora Inna Šteinbuka, quien presentó el proyecto AI4Debunk, explicando que el proyecto busca desarrollar herramientas de inteligencia artificial para proteger a la sociedad de la desinformación mediante la integración de la experiencia de los especialistas técnicos en IA con la de los científicos sociales, incluidos los politólogos y sociólogos. Se presta especial atención a la desinformación relacionada con la guerra en Ucrania y el cambio climático.
Entre los principales desafíos destacados se encontraba el rápido ritmo del desarrollo tecnológico, que crea el riesgo de que las herramientas se vuelvan obsoletas y requieran una adaptación continua. El proyecto también se está ejecutando en un contexto geopolítico complejo, en el que los esfuerzos para contrarrestar la desinformación pueden percibirse como posibles restricciones a la libertad de expresión.
Las soluciones técnicas desarrolladas dentro del proyecto fueron presentadas por Franc van der Bent de la Universidad de Utrecht. Demostró varias herramientas actualmente en fase de desarrollo, incluido un complemento de navegador diseñado para permitir a los usuarios verificar el contenido en línea —tanto texto como imágenes— analizando su coherencia con otras fuentes de información con el fin de identificar posibles falsificaciones profundas o desinformación. Además, la plataforma colaborativa Disinfopedia se introdujo como un espacio para la interacción con un chatbot impulsado por IA, la discusión de noticias actuales y la notificación de contenido sospechoso, que posteriormente es revisado por expertos.
Otras demostraciones incluyeron una aplicación para teléfonos inteligentes capaz de analizar contenido de texto, imagen, audio y video, así como un entorno educativo de realidad virtual. TruthSpace, destinado a reforzar la alfabetización digital entre los jóvenes a través del juego interactivo. El enfoque técnico enfatiza el desarrollo ágil, la arquitectura modular del sistema utilizando contenedores Docker, la accesibilidad y la rentabilidad. El software se lanzará bajo la Licencia Pública de la Unión Europea (EUPL 1.2), apoyando la transparencia y el uso de código abierto.
El debate posterior abordó cuestiones como el compromiso público, la ciberseguridad, la sostenibilidad más allá de la conclusión del proyecto en 2027 y el papel del pensamiento crítico en el uso eficaz de las soluciones tecnológicas. Los participantes hicieron hincapié en que, si bien la educación y la alfabetización mediática crítica siguen siendo esenciales, en particular en una era de falsificaciones profundas de vídeo y audio cada vez más sofisticadas, la inteligencia artificial ofrece un potencial significativo para apoyar a la sociedad cuando se combina con la experiencia humana. Las herramientas basadas en IA desarrolladas dentro del proyecto se destacaron por su capacidad para proporcionar un análisis oportuno, accesible y multiformato del contenido de texto, imagen, audio y video. Los investigadores del proyecto demostraron enfoques innovadores, incluidas alertas pasivas «estilo antivirus» y entornos educativos interactivos, que pueden reducir los obstáculos a la verificación y reforzar la alfabetización digital en diversos grupos de usuarios. La adaptabilidad, el diseño de código abierto y los fundamentos interdisciplinarios de las herramientas se presentaron como fortalezas clave, lo que permitió la mejora continua, la sostenibilidad y el impacto social a largo plazo.







