Reunión de múltiples partes interesadas

Acto multilateral en Bruselas

El 5 de septiembre, Pilot4DEV organizó una reunión de múltiples partes interesadas en el Club de Prensa de Bruselas, que reunió a destacados expertos, investigadores y profesionales para intercambiar conocimientos, debatir estrategias para luchar contra las noticias falsas y explorar cómo se pueden diseñar herramientas de IA para abordar eficazmente estos desafíos.

En el evento, el proyecto AI4Debunk junto con los hallazgos iniciales de nuestra encuesta en línea en curso ( ⁇inglés, ⁇francés, ⁇alemán, ⁇noruego, ⁇griego, ⁇letón, ⁇ucranio) se presentan. Esto preparó el escenario para una animada mesa redonda, cuyos aspectos más destacados se detallan a continuación.

1. Diseño de herramientas de proyectos

La discusión no solo enfatizó los aspectos sociales de la desinformación, sino que también examinó los factores psicológicos individuales que hacen que alguien sea vulnerable a la información manipulada en línea. Se sugirió que estos elementos psicológicos se tuvieran en cuenta al diseñar las herramientas de IA del proyecto destinadas a combatir la desinformación.

Los participantes expresaron su interés por el diseño de las herramientas, cuestionando la selección de las cuatro interfaces específicas (plug-in web, Disinfopedia, App y AR/VR) y cómo se ajustan a los objetivos del proyecto. Se expresó preocupación por garantizar que las herramientas sean accesibles al público en general, especialmente a aquellos que podrían beneficiarse más de ellas, como las personas mayores o menos conocedoras de la tecnología. Aunque hubo cierto escepticismo con respecto a si estos grupos adoptarían fácilmente aplicaciones o sistemas AR / VR, el consenso general fue que las herramientas, especialmente la aplicación, deben ser fáciles de usar.

Uno de los principales temas del debate fue el fomento de la confianza como fuente creíble, que los participantes consideraron crucial para fomentar el uso generalizado de los instrumentos. Varias partes interesadas reconocieron el desafío de establecer confianza, incluso para verificadores de hechos reconocidos. Las personas vulnerables, en particular, se consideraban menos propensas a confiar en las herramientas de verificación de datos impulsadas por la IA, mientras que los usuarios más informados podrían estar dispuestos a experimentar con ellas.  

2. Desinformación vs. desinformación

Los participantes también preguntaron por nuestras definiciones de «desinformación» y «desinformación». Esto condujo a una discusión más amplia sobre el concepto de noticias falsas y sus diversos matices: existe información falsa en un espectro que va desde la desinformación involuntaria hasta la desinformación deliberada.

La forma en que se enmarca la información, especialmente a través del uso del lenguaje emocional, fue vista como un factor que influye en la forma en que los lectores interpretan el contenido. Algunos señalaron que ya existen sistemas de IA que pueden evaluar el tono emocional de los artículos, pero se expresó precaución sobre el riesgo de generalizar demasiado los diferentes tipos de información falsa.

Dada la complejidad de determinar la verdad, los verificadores de datos siguen confiando en el análisis humano, un enfoque también fundamental para nuestra Disinfopedia. Hubo debate sobre si los medios de comunicación establecidos deberían ser notificados cuando publican información incorrecta, y algunos abogaron por una mayor colaboración entre periodistas y verificadores de datos para garantizar la precisión de las noticias. La transparencia de los periodistas cuando cometen errores se consideró clave para mantener la confianza pública.

3. Actores malintencionados e injerencia extranjera

A continuación, el debate se centró en el papel de los agentes malintencionados en la difusión de desinformación. Identificar a estos actores y rastrear los orígenes de tales amenazas es a menudo increíblemente difícil. El equipo de DisinfoLab compartió ideas de su extensa investigación sobre este tema, señalando sus hallazgos publicados disponibles en este informe.

Los participantes tenían curiosidad sobre nuestras propias experiencias en el seguimiento de actores maliciosos. A partir de nuestro estudio de caso, destacamos cómo las tácticas de desinformación rusas han demostrado ser particularmente adaptativas. Por ejemplo, su estrategia en plataformas como TikTok se centra en atraer a audiencias más jóvenes y liberales con contenido atractivo, introduciendo gradualmente propaganda después de generar confianza por primera vez. Este enfoque de integrar la desinformación en narrativas que resuenan con datos demográficos específicos plantea una amenaza creciente, especialmente en plataformas con controles de desinformación más débiles, como TikTok, en comparación con otras plataformas, como Meta o X (anteriormente Twitter).

4. IA y pensamiento crítico

Otro punto importante planteado fue la necesidad de evitar confiar ciegamente en la IA al contrarrestar las noticias falsas y, en cambio, fomentar la curiosidad y la comprensión de cómo funcionan los sistemas de IA.

Algunos participantes pidieron iniciativas para «desmitificar la IA» y los grandes modelos lingüísticos, argumentando que las personas a menudo interactúan pasivamente con la IA sin comprender sus procesos subyacentes. Sugirieron que fomentar la curiosidad sobre el aprendizaje automático desde una edad temprana podría ayudar a hacer que estas herramientas sean más accesibles para el público en general.

En realidad, esto forma parte de la justificación de la introducción de un cómic como herramienta educativa en nuestro proyecto, que desencadenó un debate sobre si educar a las personas sobre el papel de la IA en la lucha contra la desinformación podría conducir a una adopción más amplia de estas herramientas más allá de los profesionales.

Las ideas obtenidas de esta sesión ayudarán a dar forma a nuestros próximos pasos. A medida que avanza el proyecto AI4Debunk, esperamos continuar estos esfuerzos de colaboración con las partes interesadas y refinar nuestras herramientas.

Mantenemos nuestro compromiso de fomentar un mayor diálogo e innovación en la lucha contra la desinformación, trabajando juntos para construir una sociedad más informada y resiliente.

Más sobre AI4Debunk

El 6 de noviembre de 2025 se celebró en el Club de Prensa de Bruselas la mesa redonda multilateral AI4DEBUNK, que reunió a más de veinte expertos.
Sin esperar a los estándares globales, Ucrania ha construido defensas ágiles impulsadas por IA que Occidente debería estudiar, replicar y escalar.
En su informe sobre el estado de la Unión de 2025, la presidenta Von der Leyen reafirmó la lucha de la UE contra la desinformación, una misión que hemos apoyado en AI4Debunk durante más de dos años.