Sin esperar a los estándares globales, Ucrania ha construido defensas ágiles impulsadas por IA que Occidente debería estudiar, replicar y escalar.
Imagine un enemigo que nunca duerme, cuesta centavos operar y puede reescribir la realidad más rápido que cualquier verificador de hechos humano. Esa es el arma que Rusia ha construido con inteligencia artificial: una máquina mundial de desinformación que produjo 3,6 millones de artículos de propaganda solo en 2024, sembrada en 150 sitios de noticias falsas en 49 países.
A principios de 2025, surgieron informes que detallaban una sofisticada estrategia rusa para aprovechar la inteligencia artificial para la desinformación, no solo para atacar directamente a los humanos, sino para corromper sutilmente los datos de entrenamiento y los procesos de recuperación en tiempo real de los sistemas occidentales de IA.
Esta táctica, denominada «acicalamiento de LLM», implica la producción en masa y la difusión de miles de artículos generados por IA mezclados con falsedades pro-Kremlin. ¿La meta? Asegúrese de que estas narrativas se filtren en los conjuntos de datos que impulsan los grandes modelos de lenguaje (LLM), lo que lleva a los chatbots como ChatGPT, Gemini y Grok a amplificar involuntariamente la propaganda rusa en sus respuestas.
En el centro de esta campaña se encuentra la red «Pravda» (en ruso, «verdad»), una operación en expansión con sede en Moscú que se puso en marcha en abril de 2022, poco después de la invasión a gran escala de Ucrania por parte de Rusia. Reutiliza los medios de comunicación estatales, reescribe fuentes occidentales e inunda la red con mentiras del Kremlin —laboratorios estadounidenses de armas biológicas, ayuda a Zelenski para malversación de fondos, provocación de la guerra por parte de la OTAN— hasta que se convierten en la señal dominante en los resultados de búsqueda y los datos de entrenamiento de la IA.
Una auditoría de NewsGuard de marzo de 2025 encontró que los diez principales chatbots repetían falsedades originadas en Pravda 33% de la época, con la contaminación aumentando en consultas de nicho donde las fuentes creíbles son escasas. Esto no es un daño colateral. Es el envenenamiento de datos como estrategia, y está funcionando.
Occidente ha respondido, tardíamente, con regulación, filtros tecnológicos y derribos. La Ley de IA y la Ley de Servicios Digitales de la UE exigen transparencia. OpenAI y Google han endurecido la generación de recuperación aumentada (RAG) para marcar RT y Sputnik. La citación de Chatbot de fuentes rusas ha bajado de 33% a 15-20%. Estas son ganancias reales. Pero son reactivos, basados en la suposición de que el campo de batalla sigue siendo el Internet abierto, donde las reglas y las auditorías pueden mantener el ritmo.
Ucrania lo sabe mejor. Durante tres años, ha librado esta guerra en tiempo real, bajo fuego, con sirenas en el fondo. Y está ganando, no a la espera de normas mundiales, sino construyendo defensas ágiles, despiadadas y basadas en la IA que Occidente debería estudiar, replicar y escalar.
Comience por el Centro de Lucha contra la Desinformación (CCD), una célula de fusión que funciona las 24 horas del día, los 7 días de la semana, en el marco del Consejo Nacional de Seguridad y Defensa de Ucrania. A mediados de 2025, había catalogado 191 operaciones rusas impulsadas por IA, desde videos Zelenskyy profundamente falsos hasta audio sintético de generales que se rinden. Utilizando el aprendizaje automático, el CCD no solo reacciona, sino que predice. Escanea más de 1 000 fuentes en múltiples idiomas, detecta oleadas de bots sincronizados y emite «prebunks» antes de que las mentiras se vuelvan virales.
Están las startups nacidas en refugios antiaéreos. Osavul, lanzado días después de la invasión, utiliza el procesamiento del lenguaje natural para mapear redes de desinformación en TikTok, Telegram y X, alertando a los periodistas en segundos. Desenmascaró la mayor operación de propaganda narrada por la IA de la historia: vídeos de TikTok en siete idiomas en los que se acusaba a los líderes ucranianos de corrupción. Mantis Analytics geolocaliza a los combatientes a partir de imágenes raspadas, desacreditando la «dilución de hechos» rusa sobre crímenes de guerra. Incluso se despliegan herramientas controvertidas como Clearview AI, no para la vigilancia, sino para desenmascarar a los propagandistas detrás de deepfakes, como la llamada falsa de Poroshenko Zoom de 2023 destinada a provocar disturbios.
Esto no es teórico. Está probado en batalla. El hackatón ucraniano de mayo de 2025, «AI for Ukraine Recovery», produjo herramientas que ahora utilizan los medios de comunicación de primera línea para verificar las huelgas y contrarrestar las ciberalertas. El escritorio OSINT del Kyiv Independent utiliza la IA para crear contranarrativas que llegan a millones de personas. Y la Ley ucraniana de lucha contra la desinformación, actualizada en 2024, equilibra la seguridad con la libertad de expresión, ofreciendo un modelo que Occidente sigue debatiendo en las comisiones.
El contraste es marcado. Mientras que Bruselas elabora regulaciones de 400 páginas y filtros de pruebas A / B de Silicon Valley, Ucrania opera con urgencia en tiempos de guerra. No espera al consenso: itera, despliega y aprende. Cuando Rusia se adapta, la ventaja de Ucrania se reduce de meses a días. Pero nunca deja de moverse.
El error de Occidente es tratar esto como un problema tecnológico: un error para parchear con auditorías y blockchain. Ucrania lo ve como una guerra. Y en la guerra, no se gana siendo justo. Ganas siendo más rápido, más inteligente y más despiadado con la verdad.
Esto es lo que Occidente debe pedir prestado:
Construir células de fusión, no grupos de trabajo. El modelo de CCD (gobierno, empresas emergentes, medios de comunicación, OSINT) debe reproducirse en todas las capitales de la OTAN.
Armar el prebunking. Ucrania inocula al público antes de que se difundan las mentiras. Estados Unidos y la UE siguen persiguiendo la viralidad después del hecho.
Abraza herramientas controvertidas. Clearview AI tiene defectos, pero en Kiev, desenmascara a los mentirosos. Perfecto es el enemigo de la supervivencia.
Regula con dientes, no con papel. La legislación ucraniana de 2024 obliga a las plataformas a actuar. 6 de la Ley de Servicios Digitales% las multas son un comienzo: hacerlas cumplir.
Financiar la primera línea. Las empresas emergentes ucranianas funcionan con agallas y subvenciones. Occidente tiene miles de millones para la seguridad de la IA: redirección 1% a los laboratorios probados de Kiev.
Se copiará el manual de jugadas de Rusia, escalable, barato e indetectable. El próximo objetivo no será Ucrania. Será su elección, su respuesta a la pandemia, su debate sobre el clima. La IA amplificará al mentiroso más fuerte a menos que aprendamos del país que ha mirado al abismo y construido un espejo.
Ucrania no pide lástima. Está ofreciendo una clase magistral. Occidente debe dejar de regular y dar conferencias y empezar a escuchar y actuar.
El texto en esta entrada del blog ha sido recuperado de la EUalive artículo disponible en https://eualive.net/the-west-must-learn-from-ukraines-ai-war-for-truth/
ACERCA DE GEORGI GOTEV
Georgi Gotev es un periodista especializado en asuntos de la UE, activo en Bulgaria en la década de 1990 y en Bruselas desde 2007 hasta la actualidad. En 2025 fundó EUalive.
AI4Debunk se financia en el marco del programa Horizonte Europa (Acuerdo de subvención n.o 101135757) y reúne a socios multidisciplinares que trabajan para dotar a los ciudadanos europeos de los conocimientos, los marcos y las herramientas críticas necesarios para navegar por el complejo panorama de la información actual.




