Científica Publicaciones

Encuentre todas las publicaciones científicas producidas por los socios de AI4Debunk, presentando los últimos hallazgos científicos del proyecto.

Autores:
Axel Brando, Lucas Berry, David Mege

Resumen:
Los modelos de difusión generativa, notables por su gran recuento de parámetros (superior a 100 millones) y su operación dentro de espacios de imagen de alta dimensión, plantean desafíos significativos para los métodos tradicionales de estimación de incertidumbre debido a las demandas computacionales. En este trabajo, presentamos un marco innovador, Diffusion Ensembles for Capturing Uncertainty (DECU), diseñado para estimar la incertidumbre epistémica para modelos de difusión. El marco DECU introduce un método novedoso que entrena de manera eficiente conjuntos de modelos de difusión condicional mediante la incorporación de un conjunto estático de parámetros preentrenados, reduciendo drásticamente la carga computacional y el número de parámetros que requieren entrenamiento. Además, DECU emplea Estimadores de distancia por pares (PaiDE) para medir con precisión la incertidumbre epistémica mediante la evaluación de la información mutua entre las salidas del modelo y los pesos en espacios de alta dimensión. La efectividad de este marco se demuestra a través de experimentos en el conjunto de datos ImageNet, destacando su capacidad para capturar la incertidumbre epistémica, específicamente en clases de imágenes submuestreadas.

Tipo de publicación:
Documento de conferencia

Editor:
La 40a Conferencia sobre Incertidumbre en Inteligencia Artificial

Accede aquí

Autores:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.

Resumen:
En los últimos tiempos, la creciente difusión de los medios sintéticos, conocidos como deepfakes, ha sido posible gracias al rápido progreso en las tecnologías de inteligencia artificial, especialmente los algoritmos de aprendizaje profundo. Las crecientes preocupaciones sobre la creciente disponibilidad y credibilidad de las falsificaciones profundas han estimulado a los investigadores a concentrarse en el desarrollo de métodos para detectarlas. En este campo, investigadores del Laboratorio AIMH del ISTI CNR, en colaboración con investigadores de otras organizaciones, han llevado a cabo investigaciones y proyectos para contribuir a combatir esta tendencia, explorando nuevas soluciones y amenazas. Este artículo resume los esfuerzos más recientes realizados en esta área por nuestros investigadores y en colaboración con otras instituciones y expertos.

Tipo de publicación:
Documento de conferencia

Editor:
Procedimientos del taller CEUR

Accede aquí

Autores:
Stanciu, Cristian e Ionescu, Bogdan y Cuccovillo, Luca y Papadopoulos, Symeon y Kordopatis-Zilos, Giorgos y Popescu, Adrian y Caldelli, Roberto

Resumen:
La generación y manipulación de medios sintéticos han visto rápidos avances publicitarios en los últimos años, lo que hace cada vez más fácil crear contenido multimedia que sea indistinguible para el observador humano. Además, los contenidos generados pueden ser utilizados maliciosamente por individuos y organizaciones para difundir desinformación, lo que representa una amenaza significativa para la sociedad y la democracia. Por lo tanto, existe una necesidad urgente de herramientas de IA orientadas a facilitar un proceso de verificación de medios oportuno y eficaz. El taller MAD’24 tiene por objeto reunir a personas de orígenes diversos que se dedican a luchar contra la desinformación en los medios multimedia a través de la IA, fomentando un entorno para explorar ideas innovadoras y compartir experiencias. Los ámbitos de investigación de interés abarcan la identificación de contenidos manipulados o generados, junto con la investigación de la difusión de desinformación y sus repercusiones sociales. Reconociendo la importancia de los multimedios, el taller hace hincapié en el análisis conjunto de diversas modalidades dentro del contenido, ya que la verificación puede mejorarse agregando múltiples formas de contenido.

Tipo de publicación:
Documento de conferencia

Editor:
Actas del 3er Taller Internacional de ACM sobre IA Multimedia contra la Desinformación

Accede aquí

Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Resumen:
Mirar una secuencia de video donde se representa a una persona en primer plano ya no es como hace tiempo. Las falsificaciones profundas han revolucionado nuestra forma de ver tales contenidos y hoy en día estamos más acostumbrados a preguntarnos si lo que estamos viendo es real o es solo una mistificación. En este contexto de desinformación generalizada, la necesidad de soluciones confiables para ayudar a los usuarios comunes, y no solo, a hacer una evaluación sobre este tipo de secuencias de video está muy próxima. En este artículo, se presenta un enfoque novedoso que aprovecha las anomalías del marco de la superficie temporal para revelar videos deepfake. El método busca posibles discrepancias, inducidas por manipulación deepfake, en las superficies pertenecientes a la escena capturada y en su evolución a lo largo del eje temporal. Estas características se utilizan como entrada de una tubería basada en redes neuronales profundas para realizar una evaluación binaria en el video en sí. Los resultados experimentales atestiguan que tal metodología puede lograr un rendimiento significativo en términos de precisión de detección.

Tipo de publicación:
Documento de conferencia

Editor:
Conferencia IEEE/CVF 2024 sobre talleres de visión por computadora y reconocimiento de patrones (CVPRW)

Accede aquí

Autores:
Pascaline Gaborit

Resumen:
Las organizaciones internacionales clasifican la desinformación como una de las principales amenazas para la democracia y las instituciones durante más de una década. Las tecnologías digitales reinventan y transforman profundamente los estilos de vida modernos y los entornos de los ciudadanos y las empresas. La IA está trayendo una nueva interrupción en la forma en que accedemos al conocimiento y creamos, difundimos y entendemos la información. También puede difuminar las líneas entre la información real y la información manipulada con la aparición de «noticias falsas», referencias cruzadas de redes automáticas y «falsificaciones profundas». Los sistemas de IA aumentan el potencial para crear contenidos falsos realistas y campañas de desinformación específicas. La desinformación va más allá de simples rumores para engañar y distorsionar deliberadamente la información basada en la evidencia a través de datos fabricados. Las instituciones europeas también se han centrado recientemente en la identificación de la desinformación relacionada con la manipulación de información e injerencia por parte de agentes extranjeros: Manipulación e interferencia de información extranjera. El artículo identifica tendencias y preocupaciones relacionadas con la desinformación y la IA. Explora la percepción de la desinformación, sus repercusiones y las respuestas, incluidas la Ley de IA de la UE y las políticas de las plataformas en línea. Proporciona un primer enfoque analítico del tema basado en los debates actuales de los investigadores, los primeros hallazgos de nuestras encuestas de 2024, entrevistas y el análisis de cientos de noticias falsas en línea. Intenta comprender cómo los ciudadanos y las partes interesadas perciben la desinformación e identifica posibles impactos. También analiza los desafíos y limitaciones actuales, oportunidades y limitaciones para abordar la manipulación y la interferencia. El artículo tiene en cuenta los procesos actuales y las repercusiones de la desinformación (2), la presentación de las principales conclusiones de nuestra encuesta en línea sobre las percepciones de la desinformación (3), las actuales respuestas reglamentarias de la UE (4) y los puntos de debate (5). Argumentamos en este artículo que hay un cambio gigantesco en la forma en que accedemos a la información, pero que las respuestas a la desinformación aún se encuentran en una etapa temprana. El artículo también demuestra que existe una mayor sensibilización en los países europeos sobre los efectos de la desinformación, pero también una brecha entre la capacidad de identificar «noticias falsas» y la desinformación, y una comprensión limitada de los procesos, las amenazas y los agentes implicados en la difusión de la desinformación.

Tipo de publicación:
Papel de diario

Editor:
Revista de Ciencias Políticas y Relaciones Internacionales

Accede aquí

Autores:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra, Axel Brando

Resumen:

En este artículo, presentamos una novedosa aplicación de los modelos causales estructurales (MCS) y el procedimiento de abducción-acción-predicción a una serie temporal en el contexto de un problema del mundo real en la industria farmacéutica. Nuestro objetivo es estimar los contrafácticos para el volumen de ventas de un medicamento que se ha visto afectado por la entrada en el mercado de un medicamento genérico competidor. Empleamos arquitecturas basadas en encoder-decoder, aplicando un autoencoder variacional condicional y también introduciendo el uso de autoencoders condicionales escasos, que nunca se habían utilizado en la literatura contrafactual. La metodología propuesta requiere disponibilidad de eventos históricos y series temporales sin eventos y tiene la ventaja de no depender de covariables de control que pueden no estar disponibles, al tiempo que supera claramente la estimación contrafactual básica de un pronóstico. Evaluamos nuestro enfoque utilizando el conjunto de datos de ventas reales de nuestra empresa, así como conjuntos de datos sintéticos y semisintéticos que imitan el contexto del problema, lo que demuestra su eficacia. Hemos aplicado con éxito este modelo en nuestra empresa, proporcionando información útil para la planificación empresarial, la asignación de inversiones y el establecimiento de objetivos.

Tipo de publicación:
Artículo del taller

Editor:
Taller de NeurIPS 24 sobre Aprendizaje de Representación Causal

Accede aquí

Autores:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis, Arianna D’Ulizia

Resumen:
El auge de las plataformas digitales ha facilitado la rápida propagación de la desinformación, que plantea importantes retos sociales, políticos y económicos. Los gráficos de conocimiento (KG) están emergiendo como herramientas efectivas para mejorar la precisión, interpretabilidad y escalabilidad de los sistemas de detección de noticias falsas, abordando las limitaciones en los enfoques tradicionales basados en el aprendizaje automático que se basan principalmente en el análisis lingüístico. Este trabajo contiene una revisión de la literatura que sintetiza los hallazgos de estudios recientes sobre la aplicación de KG en la detección de desinformación. Identificamos cómo los KG mejoran la detección mediante la codificación de relaciones reales, el análisis del contexto y la mejora de la interpretabilidad del modelo, al tiempo que discutimos las limitaciones actuales en la escalabilidad, la integridad de los datos y la adaptabilidad contextual. Los estudios revisados subrayan la necesidad de futuras investigaciones centradas en modelos KG escalables, en tiempo real y multilingüísticos para reforzar las capacidades de detección de desinformación a nivel mundial. Además, presentamos los resultados preliminares de dos casos de uso, mostrando una metodología para la construcción de KG que pueden servir como herramientas útiles para luchar contra la propagación de la desinformación.

Tipo de publicación:
Documento de conferencia

Editor:
Conferencia Internacional sobre Ingeniería y Tecnologías Emergentes (ICEET) 2024

Accede aquí

Autores:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia

Resumen:
Este documento explora la respuesta polifacética de la Unión Europea a la cuestión generalizada de la desinformación, un reto que se ha intensificado desde la anexión de Crimea en 2014. La desinformación plantea amenazas significativas para los procesos democráticos y el bienestar público. El enfoque de la Unión Europea combina medidas reguladoras, asociaciones estratégicas e iniciativas de alfabetización mediática para hacer frente a este fenómeno, salvaguardando al mismo tiempo los principios democráticos fundamentales, como la libertad de expresión. Entre las medidas clave figuran el Código de Buenas Prácticas en materia de Desinformación y la Ley de Servicios Digitales, cuyo objetivo es responsabilizar a las plataformas digitales y garantizar la transparencia. Además, iniciativas como el Grupo de Trabajo East StratCom y el Sistema de Alerta Rápida destacan los esfuerzos de la Unión Europea para contrarrestar la desinformación como herramienta de guerra híbrida. Este documento también enfatiza el papel crítico de los ciudadanos, a quienes la Unión Europea busca empoderar a través de programas de alfabetización mediática, permitiéndoles reconocer y resistir el contenido manipulador. Al examinar las interacciones entre las acciones gubernamentales, la participación del sector privado y la participación ciudadana, el presente estudio ofrece un análisis exhaustivo de la estrategia de la Unión Europea contra la desinformación y evalúa los retos y las orientaciones futuras necesarias para mantener la resiliencia democrática en un panorama digital en evolución.

Tipo de publicación:
Artículo científico

Editor:
Polidad de la información

Accede aquí

Autores:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia

Resumen:

Finalidad
Utilizando un enfoque multidisciplinar, este estudio tiene como objetivo rastrear el camino de las campañas de desinformación desde su detección por señales lingüísticas de credibilidad hasta su promoción a través de los mecanismos de difusión y, por último, evaluar su impacto en el contexto sociopolítico.

Diseño/metodología/enfoque
Este estudio ofrece una visión general en profundidad de cuatro aspectos fundamentales de la desinformación: las características lingüísticas que distinguen los contenidos diseñados para engañar y manipular a la opinión pública, los mecanismos mediáticos que facilitan su difusión mediante la explotación de los procesos cognitivos de su audiencia, las amenazas que plantea el creciente uso de la inteligencia artificial generativa para difundir desinformación y las consecuencias más amplias que estas dinámicas de desinformación tienen en la opinión pública y, en consecuencia, en los procesos de toma de decisiones políticas.

Constataciones
Como resultado, el documento proporciona un examen interdisciplinario y holístico del fenómeno, refiriéndose a sus elementos pluralizados para resaltar la importancia de la responsabilidad de la plataforma, las campañas de alfabetización mediática entre los ciudadanos y la cooperación interactiva entre los sectores público y privado como medidas para mejorar la resiliencia contra la amenaza de la desinformación.

Originalidad/valor
El estudio destaca la necesidad de aumentar la rendición de cuentas de las plataformas, promover la alfabetización mediática entre las personas y desarrollar la cooperación entre los sectores público y privado. Los objetivos de esta estrategia integrada son reforzar la resiliencia frente a la desinformación y garantizar la adaptabilidad de la UE frente a las amenazas digitales cambiantes. En última instancia, el documento aboga por una estrategia justa y abierta que proteja la libertad de expresión y fortalezca las instituciones democráticas en un momento en que la desinformación digital está en aumento.

Tipo de publicación:
Artículo científico

Editor:
Revista de Información, Comunicación y Ética en la Sociedad (2025)

Accede aquí

Autores:
Eddie Conti, Alejandro Astruc, Álvaro Parafita, Axel Brando

Resumen:

Comprender cómo se propaga la información a través de los modelos Transformer es un desafío clave para la interpretabilidad. En este trabajo, estudiamos los efectos de las perturbaciones simbólicas mínimas en el espacio de incrustación. En nuestros experimentos, analizamos la frecuencia con la que los tokens ceden a cambios mínimos, destacando que los tokens raros generalmente conducen a cambios más grandes. Además, estudiamos cómo las perturbaciones se propagan a través de las capas, lo que demuestra que la información de entrada se mezcla cada vez más en capas más profundas. Nuestros hallazgos validan la suposición común de que las primeras capas de un modelo se pueden utilizar como proxies para las explicaciones del modelo. En general, este trabajo introduce la combinación de perturbaciones simbólicas y cambios en el espacio de incrustación como una herramienta poderosa para la interpretabilidad del modelo.

Tipo de publicación:
Artículo del taller

Editor:
Taller IJCAI 2025 sobre Inteligencia Artificial Explicable

Accede aquí

Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Resumen:

La desinformación siempre se induce más recurriendo a contenidos realistas alterados o completamente generados sintéticamente, generalmente conocidos como deepfakes. Esto plantea la necesidad de instrumentos fiables capaces de revelar tales contenidos falsos para evitar la polarización del pensamiento de las personas. Se han presentado diversas técnicas, cuyo denominador común es buscar algunas inconsistencias inducidas por el proceso de generación falsa y evidenciadas al observar características específicas. Parece que la posible combinación de varias características distintivas podría proporcionar logros más efectivos. Desde este punto de vista y siguiendo nuestro estudio previo sobre este tema, proponemos investigar una nueva característica que básicamente tiene en cuenta las relaciones incorporadas existentes dentro de toda la escena de adquisición en el momento de la captura de la imagen (vídeo) y luego representadas por los valores de píxeles de la imagen. La idea detrás es que el proceso de generación de deepfake puede romper tales dependencias intrínsecas entre la iluminación (intensidad y dirección), las superficies del objeto (posición y reflectancia) y el ruido de adquisición, evidenciando así una posible manipulación. De acuerdo con esto, un descriptor de características, llamado Local Surface Descriptor, se ha construido y utilizado para entrenar modelos basados en CNN para la detección de deepfake. Los resultados experimentales realizados en diferentes contextos operativos demuestran una precisión de detección significativa de hasta 90%.

Tipo de publicación:
Documento de conferencia

Editor:
Conferencia Internacional IEEE 2024 sobre Retos y Talleres de Procesamiento de Imágenes (ICIPCW), Abu Dhabi, Emiratos Árabes Unidos, 2024

Accede aquí

Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Resumen:

La capacidad real de generar imágenes totalmente sintéticas realistas mediante IA está mejorando día a día y esto es particularmente cierto para las imágenes que representan rostros humanos que parecen indistinguibles de las personas reales. Esto plantea la necesidad crucial de desarrollar instrumentos capaces de discernir entre personas verdaderas y no existentes mediante la detección de algunas inconsistencias eventuales incrustadas en las imágenes durante el proceso de generación. La principal diferencia entre una imagen prístina y una deepfake generada es que, en el segundo caso, no ha habido una adquisición efectiva de la cámara; Por lo tanto, todas las diversas interrelaciones entre los elementos que pertenecen a la escena (luces, reflectancia, posiciones respectivas de los objetos en el espacio 3D) no son tomadas por el mundo real en ese preciso instante de tiempo, sino simplemente reproducidas artificialmente. De acuerdo con esta consideración, en este trabajo, introducimos los marcos de superficie de las cámaras locales como un posible medio para representar estas características ambientales específicas con el fin de resaltar las diferencias. El análisis experimental realizado ha sido testigo de que esta característica puede otorgar un nivel muy alto de precisión y un grado significativo de generalización.

Tipo de publicación:
Documento de conferencia

Editor:
Conferencia Internacional IEEE 2024 sobre Retos y Talleres de Procesamiento de Imágenes (ICIPCW), Abu Dhabi, Emiratos Árabes Unidos, 2024

Accede aquí

Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Resumen:

Se pueden realizar imágenes irreales extraordinarias con técnicas de IA pow-erful. Varias herramientas disponibles para todos pueden recrear contenidos de alta calidad, especialmente generando imágenes completamente sintéticas. Entre las arquitecturas existentes, los modelos basados en la difusión pueden producir fácilmente cualquier tipo de imágenes, incluidas las imágenes faciales humanas, dando un mensaje como un texto. Estos contenidos falsos se utilizan a menudo para difundir desinformación y esto plantea preocupaciones sobre la seguridad de las personas. En la actualidad, se está haciendo difícil desarrollar instrumentos confiables para distinguir entre personas reales y generadas (incluso no existentes). Además, la gran cantidad de implementaciones basadas en la difusión plantea el problema de que estos detectores generalicen nuevas técnicas generativas. Para abordar estos problemas, proponemos investigar la capacidad de un rasgo distintivo, basado en el entorno de adquisición de imágenes, para individualizar las imágenes faciales basadas en la difusión de las prístinas. De hecho, las imágenes generadas no deben contener las características propias de la fase de adquisición realizada a través de una cámara real. Tales incoherencias se pueden resaltar mediante marcos de superficie locales recientemente introducidos. Esta característica tiene en cuenta los objetos y superficies involucrados en la escena, que impactan en el proceso de adquisición de la cámara, junto con más información intrínseca vinculada al dispositivo, así como la iluminación y los reflejos que afectan a todo el escenario. El artículo explora la capacidad de esta característica para generalizar hacia diferentes conjuntos de datos y nuevos métodos generativos desconocidos durante el entrenamiento. Los resultados experimentales destacan que tal característica todavía proporciona niveles significativos de precisión de detección también en estos casos.

Tipo de publicación:
Documento de conferencia

Editor:
Conferencia Internacional IEEE 2024 sobre Retos y Talleres de Procesamiento de Imágenes (ICIPCW), Abu Dhabi, Emiratos Árabes Unidos, 2024

Accede aquí

Autores:
Álvaro Parafita, Tomas Garriga, Axel Brando, Francisco J. Cazorla

Resumen:

Entre las técnicas de explicabilidad, SHAP se destaca como una de las más populares, pero a menudo pasa por alto la estructura causal del problema. En respuesta, do-SHAP emplea consultas intervencionistas, pero su dependencia de estimaciones dificulta su aplicación práctica. Para abordar este problema, proponemos el uso de enfoques estimando-agnósticos, que permiten la estimación de cualquier consulta identificable desde un solo modelo, haciendo factible do-SHAP en gráficos complejos. También desarrollamos un nuevo algoritmo para acelerar significativamente su cálculo a un costo insignificante, así como un método para explicar los procesos de generación de datos inaccesibles. Demostramos la estimación y el rendimiento computacional de nuestro enfoque, y lo validamos en dos conjuntos de datos del mundo real, destacando su potencial para obtener explicaciones confiables.

Tipo de publicación:
Documento de conferencia

Editor:
La trigésima novena Conferencia Anual sobre Sistemas de Procesamiento de Información Neuronal (NeurIPS 2025)

Accede aquí

Autores:
Alamgir Munir Qazi, John Philip McCrae, Jamal Nasir

Resumen:

La proliferación de la desinformación requiere sistemas de verificación de hechos robustos pero computacionalmente eficientes. Si bien los enfoques actuales de vanguardia aprovechan los Grandes Modelos de Lenguaje (LLM) para generar razones explicativas, estos métodos se enfrentan a importantes barreras computacionales y riesgos de alucinación en despliegues del mundo real. Presentamos DeReC (Dense Retrieval Classification), un marco ligero que demuestra cómo las incrustaciones de texto de propósito general pueden reemplazar efectivamente los enfoques autoregresivos basados en LLM en tareas de verificación de hechos. Al combinar la recuperación densa con la clasificación especializada, nuestro sistema logra una mejor precisión al tiempo que es significativamente más eficiente. DeReC supera a los LLM generadores de explicaciones en eficiencia, reduciendo el tiempo de ejecución en 95% en RAWFC (23 minutos 36 segundos frente a 454 minutos 12 segundos) y por 92% en LIAR-RAW (134 minutos 14 segundos en comparación con 1692 minutos 23 segundos), mostrando su efectividad en diferentes tamaños de conjuntos de datos. En el conjunto de datos RAWFC, DeReC logra una puntuación de F1 de 65.58%, superando el método de vanguardia L-Defensa (61.20%). Nuestros resultados demuestran que los sistemas basados en la recuperación cuidadosamente diseñados pueden igualar o superar el rendimiento de LLM en tareas especializadas, a la vez que son significativamente más prácticos para la implementación en el mundo real.

Tipo de publicación:
Documento de conferencia

Editor:
5a Conferencia sobre Lenguaje, Datos y Conocimiento

Accede aquí

Autores:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli y Stefano Berretti

Resumen:

Para la MediaEval 2025 SynthIm Challenge Task A (Synthetic Image Detection), identificamos un cambio crítico de distribución entre los datos de entrenamiento y prueba proporcionados, lo que hace que el primero sea un mal representante para el dominio objetivo. Nuestro enfoque aborda directamente este desafío incorporando el conjunto de validación más consistente estilísticamente en nuestros datos de entrenamiento y aprovechando un CLIP ViT-L/14 congelado como un extractor de características robusto. Nuestra idea principal es que bajo tales condiciones de cambio de dominio, las representaciones generalizables de un gran modelo preentrenado superan significativamente a una CNN tradicional ajustada en el conjunto de datos desajustado, demostrando ser una estrategia más efectiva y confiable.

Tipo de publicación:
Documento de conferencia

Editor:
MediaEval»25: Taller de evaluación multimedia, 25 y 26 de octubre de 2025, Dublín, Irlanda y en línea

Acceso bajo petición

Autores:
Qiushi Li, Roberto Caldelli y Stefano Berretti

Resumen:

El rápido avance de los modelos de generación de imágenes como Stable Diffusion plantea preocupaciones sobre el posible uso indebido, lo que hace que las técnicas robustas de marca de agua sean esenciales para la autenticación y atribución de contenido sintético, particularmente en la lucha contra las falsificaciones profundas. Sin embargo, garantizar simultáneamente la generación de imágenes de alta calidad y la extracción precisa de marcas de agua sigue siendo un desafío. A través de un análisis de los métodos existentes, identificamos una limitación crítica:
sus funciones de pérdida a menudo adoptan una sola referencia (ya sea la imagen de entrada o la imagen generada limpiamente) para optimizar la fidelidad de la imagen, lo que lleva a un rendimiento subóptimo. En este trabajo, llevamos a cabo un estudio en profundidad del término de pérdida de calidad de imagen en la marca de agua basada en difusión. Al analizar los distintos impactos de usar la imagen de entrada frente a la imagen generada limpiamente como referencias durante la optimización, revelamos que considerar conjuntamente ambas referencias mejora significativamente la robustez y la calidad visual. Extensos experimentos demuestran que nuestro enfoque de doble referencia logra un rendimiento superior tanto en la precisión de extracción de la marca de agua como en la fidelidad de generación en comparación con las líneas de base de referencia única. Abogamos por este paradigma para avanzar en la marca de agua confiable en modelos generativos.

Tipo de publicación:
Documento de conferencia

Editor:
DFF ’25: Actas del 1er Taller de Forenses Deepfake: Detección, atribución, reconocimiento y desafíos adversos en la era de los medios generados por IA

Accede aquí

Autores:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte, Marc Serra-Vidal

Resumen:

La inteligencia artificial (IA) ahora impregna las infraestructuras críticas y los sistemas de toma de decisiones donde las fallas producen daños sociales, económicos y democráticos. Este documento de posición desafía la creencia arraigada de que la regulación y la innovación son opuestas. Como lo demuestran las analogías de la aviación, los productos farmacéuticos y los sistemas de bienestar y los casos recientes de desinformación sintética, sesgo y toma de decisiones inexplicable, la ausencia de una regulación bien diseñada ya ha creado daños inconmensurables. La regulación, cuando es reflexiva y adaptativa, no es un freno a la innovación, es su fundamento. El presente documento de posición examina la Ley de IA de la UE como un modelo de regulación basada en el riesgo y basada en la responsabilidad que aborda el dilema de Collingridge: actuar con la suficiente antelación para evitar daños, pero con la suficiente flexibilidad para mantener la innovación. Sus mecanismos de adaptación —espacios controlados de pruebas, apoyo a las pequeñas y medianas empresas (pymes), pruebas en condiciones reales, evaluación de impacto sobre los derechos fundamentales (FRIA)— demuestran cómo la regulación puede acelerar de manera responsable, en lugar de retrasar, el progreso tecnológico. El documento de posición resume cómo las herramientas de gobernanza transforman las cargas percibidas en ventajas tangibles: seguridad jurídica, confianza de los consumidores y competitividad ética. En última instancia, el documento replantea el progreso: la innovación y la regulación avanzan juntas. Al integrar la transparencia, las evaluaciones de impacto, la rendición de cuentas y la alfabetización en materia de IA en el diseño y el despliegue, el marco de la UE define lo que realmente significa innovación responsable: ambición tecnológica disciplinada por los valores democráticos y los derechos fundamentales.

Tipo de publicación:
Documento de conferencia

Editor:
La trigésima novena Conferencia Anual sobre Sistemas de Procesamiento de Información Neuronal (NeurIPS 2025)

Accede aquí

Autor: Pascaline Gaborit

Resumen:

En una era de incertidumbre global, la confianza se ha convertido en un factor crítico que da forma a las relaciones entre las naciones, las instituciones y los individuos. Este libro, Confianza, Nuevas Tecnologías y Geopolítica en un Mundo Incierto, ofrece una exploración oportuna y profunda de cómo se está probando y transformando la confianza frente a los paisajes geopolíticos que cambian rápidamente. Desde la fragilidad de los sistemas democráticos hasta los desafíos planteados por las nuevas tecnologías, la IA, la desinformación y el cambio climático, este libro profundiza en los problemas más apremiantes de nuestro tiempo. Al examinar las intersecciones de la confianza con ámbitos clave como las democracias, las guerras comerciales y las nuevas tecnologías, este trabajo proporciona información valiosa para los responsables políticos, los académicos y cualquier persona que busque comprender las complejidades del mundo actual. Ya sea que le preocupe la ciberseguridad, la desinformación, el impacto de las amenazas híbridas o el papel de la confianza en la diplomacia internacional, este libro ofrece un marco integral pero accesible para navegar estos desafíos. Arroja luz sobre cómo comprender la confianza es clave para abordar las incertidumbres geopolíticas que definen nuestra era.

Tipo de publicación:
Libro

Editor:
Peter Lang editor

Accede aquí

Autor:

Eddie Conti, Álvaro Parafita, Axel Brando

Resumen:

Evaluar la importancia de las características individuales en el aprendizaje automático es fundamental para comprender el proceso de toma de decisiones del modelo. Si bien existen numerosos métodos, la falta de una verdad fundamentada definitiva para la comparación pone de relieve la necesidad de medidas alternativas y bien fundadas. Este artículo presenta un nuevo método de importancia de características locales post-hoc llamado Distribución de Importancia Contrafactual (CID). Generamos dos conjuntos de contrafácticos positivos y negativos, modelamos sus distribuciones utilizando Kernel Density Estimation y clasificamos las características en función de una medida de disimilitud distributiva. Esta medida, basada en un marco matemático riguroso, satisface las propiedades clave requeridas para funcionar como una métrica válida. Mostramos la efectividad de nuestro método comparándolo con explicadores de importancia de características locales bien establecidos. Nuestro método no solo ofrece perspectivas complementarias a los enfoques existentes, sino que también mejora el rendimiento en las métricas de fidelidad (tanto para la integridad como para la suficiencia), lo que resulta en explicaciones más fieles del sistema. Estos resultados resaltan su potencial como una herramienta valiosa para el análisis de modelos.

Tipo de publicación:
Documento de conferencia

Editor:
Conferencia de Aprendizaje Profundo de Northern Lights 2026

Accede aquí