Cientifica Publicações
Autores:
Axel Brando, Lucas Berry, David Mege
Resumo:
Os modelos de difusão generativa, notáveis por sua grande contagem de parâmetros (superior a 100 milhões) e operação em espaços de imagem de alta dimensão, representam desafios significativos para os métodos tradicionais de estimativa de incerteza devido às demandas computacionais. Neste trabalho, introduzimos um quadro inovador, Diffusion Ensembles for Capturing Uncertainty (DECU), concebido para estimar a incerteza epistémica para modelos de difusão. O quadro DECU introduz um novo método que treina eficientemente conjuntos de modelos de difusão condicional, incorporando um conjunto estático de parâmetros pré-treinados, reduzindo drasticamente a carga computacional e o número de parâmetros que requerem formação. Além disso, o DECU emprega Estimadores de Distância Paráwise (PaiDEs) para medir com precisão a incerteza epistémica, avaliando a informação mútua entre as saídas do modelo e os pesos em espaços de alta dimensão. A eficácia desta estrutura é demonstrada através de experiências no conjunto de dados ImageNet, destacando a sua capacidade de capturar a incerteza epistémica, especificamente em classes de imagem subamostradas.
Tipo de publicação:
Documento de conferência
Editora:
A 40a Conferência sobre a Incerteza na Inteligência Artificial
Autores:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.
Resumo:
Nos últimos tempos, a crescente propagação de meios sintéticos, conhecidos como deepfakes, tornou-se possível graças ao rápido progresso das tecnologias de inteligência artificial, especialmente os algoritmos de aprendizagem profunda. As crescentes preocupações com a crescente disponibilidade e credibilidade das falsificações profundas têm estimulado os investigadores a se concentrarem no desenvolvimento de métodos para detectá-las. Neste domínio, investigadores do Laboratório AIMH do ISTI CNR, em colaboração com investigadores de outras organizações, realizaram investigação, investigações e projetos para contribuir para combater esta tendência, explorando novas soluções e ameaças. Este artigo resume os esforços mais recentes feitos nesta área pelos nossos investigadores e em colaboração com outras instituições e especialistas.
Tipo de publicação:
Documento de conferência
Editora:
Atas do seminário CEUR
Autores:
Stanciu, Cristian e Ionescu, Bogdan e Cuccovillo, Luca e Papadopoulos, Simeão e Kordopatis-Zilos, Giorgos e Popescu, Adrian e Caldelli, Roberto
Resumo:
A geração e manipulação de mídia sintética têm visto anúncios rápidos nos últimos anos, tornando cada vez mais fácil a criação de conteúdo multimédia que é indistinguível para o observador humano. Além disso, os conteúdos gerados podem ser utilizados de forma maliciosa por indivíduos e organizações para difundir desinformação, o que constitui uma ameaça significativa para a sociedade e a democracia. Por conseguinte, existe uma necessidade urgente de ferramentas de IA destinadas a facilitar um processo de verificação dos meios de comunicação social atempado e eficaz. O seminário MAD’24 procura reunir pessoas de diferentes origens que se dedicam ao combate à desinformação nos meios multimédia através da IA, promovendo um ambiente para a exploração de ideias inovadoras e a partilha de experiências. As áreas de investigação de interesse englobam a identificação de conteúdos manipulados ou gerados, juntamente com a investigação da disseminação da desinformação e das suas repercussões societais. Reconhecendo a importância do multimédia, a oficina enfatiza a análise conjunta de várias modalidades dentro do conteúdo, uma vez que a verificação pode ser melhorada através da agregação de múltiplas formas de conteúdo.
Tipo de publicação:
Documento de conferência
Editora:
Actas do 3o Workshop Internacional da ACM sobre Inteligência Artificial Multimédia contra a Desinformação
Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Resumo:
Olhar para uma sequência de vídeo onde uma pessoa em primeiro plano é representada não é mais como há tempo. As falsificações profundas revolucionaram a nossa forma de ver esses conteúdos e hoje em dia estamos mais habituados a perguntar-nos se o que estamos a ver é real ou apenas uma mistificação. Neste contexto de desinformação generalizada, a necessidade de soluções fiáveis para ajudar os utilizadores comuns, e não apenas, a fazer uma avaliação deste tipo de sequências de vídeo, está muito próxima. Neste artigo, uma nova abordagem que aproveita as anomalias do quadro de superfície temporal, a fim de revelar vídeos deepfake é introduzida. O método procura possíveis discrepâncias, induzidas pela manipulação deepfake, nas superfícies pertencentes à cena capturada e na sua evolução ao longo do eixo temporal. Estas características são usadas como entrada de um pipeline baseado em redes neurais profundas para realizar uma avaliação binária no próprio vídeo. Os resultados experimentais testemunham que tal metodologia pode alcançar um desempenho significativo em termos de precisão de detecção.
Tipo de publicação:
Documento de conferência
Editora:
Conferência IEEE/CVF 2024 sobre a Visão Informática e os Workshops de Reconhecimento de Padrões (CVPRW)
Autores:
Pascaline Gaborit
Resumo:
As organizações internacionais classificam a desinformação como uma das principais ameaças à democracia e às instituições há mais de uma década. As tecnologias digitais reinventam e transformam profundamente os estilos de vida modernos, os cidadãos e os ambientes empresariais. A IA está a provocar uma nova perturbação na forma como acedemos ao conhecimento e criamos, divulgamos e compreendemos a informação. Pode também esbater as linhas entre a informação real e a informação manipulada com a emergência de «notícias falsas», referências cruzadas de redes automáticas e «falsificações profundas». Os sistemas de IA reforçam o potencial de criação de conteúdos falsos realistas e de campanhas de desinformação direcionadas. A desinformação vai além dos simples rumores para enganar e distorcer deliberadamente informações baseadas em provas através de dados fabricados. Recentemente, as instituições europeias também se centraram na identificação da desinformação associada à FIMI: Manipulação e Interferência de Informações Estrangeiras. O artigo identifica tendências e preocupações relacionadas com a desinformação e a IA. Explora a perceção da desinformação, os seus impactos e as respostas, incluindo o Regulamento Inteligência Artificial da UE e as políticas das plataformas em linha. Proporciona uma primeira abordagem analítica do tema com base nos atuais debates dos investigadores, nas primeiras conclusões dos inquéritos do Tribunal de 2024, em entrevistas e na análise de centenas de notícias falsas em linha. Procura compreender a forma como os cidadãos e as partes interessadas percecionam a desinformação e identificam possíveis impactos. Também analisa os atuais desafios e constrangimentos, oportunidades e limitações para combater a manipulação e a interferência. O artigo tem em conta os processos atuais e os impactos da desinformação (2), a apresentação das principais conclusões do inquérito em linha do Tribunal sobre a perceção da desinformação (3), as atuais respostas regulamentares da UE (4) e os pontos de debate (5). Argumentamos neste artigo que há uma mudança gigantesca na forma como acedemos à informação, mas que as respostas à desinformação ainda estão numa fase inicial. O artigo demonstra igualmente que existe uma maior sensibilização nos países europeus para os impactos da desinformação, mas também um fosso entre a capacidade de identificar «notícias falsas» e desinformação e uma compreensão limitada dos processos, ameaças e intervenientes envolvidos na propagação da desinformação.
Tipo de publicação:
Artigo de jornal
Editora:
Jornal de Ciência Política e Relações Internacionais
Autores:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra, Axel Brando
Resumo:
Neste trabalho, apresentamos uma nova aplicação de modelos causais estruturais (MCS) e o procedimento de abdução-ação-previsão a um cenário de séries temporais no contexto de um problema do mundo real na indústria farmacêutica. O nosso objetivo é estimar contrafactuais para o volume de vendas de um medicamento que foi afetado pela entrada no mercado de um medicamento genérico concorrente. Empregamos arquiteturas baseadas em codificadores-decodificadores, aplicando um autoencodificador variacional condicional e também introduzindo o uso de autoencodificadores esparsos condicionais, que nunca haviam sido usados na literatura contrafactual. A metodologia proposta exige a disponibilidade de séries históricas de eventos e de séries cronológicas sem eventos e tem a vantagem de não depender de covariáveis de controlo que possam não estar disponíveis, ao mesmo tempo que supera claramente a estimativa contrafactual de base de uma previsão. O Tribunal avalia a sua abordagem utilizando o conjunto de dados de vendas da sua empresa em condições reais, bem como conjuntos de dados sintéticos e semissintéticos que imitam o contexto do problema, demonstrando a sua eficácia. Aplicámos com sucesso este modelo na nossa empresa, fornecendo informações úteis para o planeamento de negócios, alocação de investimentos e definição de objetivos.
Tipo de publicação:
Artigo do seminário
Editora:
Seminário NeurIPS’24 sobre a aprendizagem da representação causal
Autores:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis, Arianna D’Ulizia
Resumo:
O aumento das plataformas digitais facilitou a rápida propagação da desinformação, o que coloca desafios sociais, políticos e económicos significativos. Os gráficos de conhecimento estão a emergir como ferramentas eficazes para melhorar a exatidão, a interpretabilidade e a escalabilidade dos sistemas de deteção de notícias falsas, abordando as limitações das abordagens tradicionais baseadas na aprendizagem automática que assentam principalmente na análise linguística. Este trabalho contém uma revisão da literatura que sintetiza os resultados de estudos recentes sobre a aplicação de KGs na detecção de desinformação. Identificamos como os KGs melhoram a detecção ao codificar relações reais, analisar o contexto e melhorar a interpretabilidade do modelo, enquanto também discutimos as limitações atuais na escalabilidade, completude dos dados e adaptabilidade contextual. Os estudos revistos sublinham a necessidade de investigação futura centrada em modelos de GC escaláveis, em tempo real e interlinguísticos para reforçar as capacidades de deteção de desinformação a nível mundial. Além disso, apresentamos os resultados preliminares de dois casos de utilização, apresentando uma metodologia para a construção de GC que pode servir como instrumentos úteis para combater a propagação da desinformação.
Tipo de publicação:
Documento de conferência
Editora:
Conferência Internacional de Engenharia e Tecnologias Emergentes (ICEET) 2024
Autores:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia
Resumo:
O presente documento explora a resposta multifacetada da União Europeia à questão generalizada da desinformação, um desafio que se intensificou desde a anexação da Crimeia em 2014. A desinformação representa uma ameaça significativa para os processos democráticos e o bem-estar público. A abordagem da União Europeia combina medidas regulamentares, parcerias estratégicas e iniciativas de literacia mediática para fazer face a este fenómeno, salvaguardando simultaneamente os princípios democráticos fundamentais, como a liberdade de expressão. As principais medidas incluem o Código de Conduta sobre Desinformação e o Regulamento dos Serviços Digitais, que visam responsabilizar as plataformas digitais e assegurar a transparência. Além disso, iniciativas como o Grupo de Trabalho East StratCom e o Sistema de Alerta Rápido destacam os esforços da União Europeia para combater a desinformação enquanto instrumento de guerra híbrida. O presente documento salienta igualmente o papel fundamental dos cidadãos, que a União Europeia procura capacitar através de programas de literacia mediática, permitindo-lhes reconhecer e resistir a conteúdos manipuladores. Ao examinar as interações entre as ações governamentais, a participação do setor privado e a participação dos cidadãos, o presente estudo apresenta uma análise exaustiva da estratégia da União Europeia contra a desinformação e avalia os desafios e as direções futuras necessárias para sustentar a resiliência democrática num panorama digital em evolução.
Tipo de publicação:
Artigo científico
Editora:
Política de informação
Autores:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia
Resumo:
Finalidade
Utilizando uma abordagem multidisciplinar, este estudo tem como objetivo traçar o caminho das campanhas de desinformação desde a sua deteção por indícios linguísticos de credibilidade até ao seu aprofundamento através dos mecanismos de divulgação e, por último, avaliar o seu impacto no contexto sociopolítico.
Conceção/metodologia/abordagem
Este estudo apresenta uma panorâmica aprofundada de quatro aspetos fundamentais da desinformação: as características linguísticas que distinguem os conteúdos concebidos para enganar e manipular a opinião pública, os mecanismos dos meios de comunicação social que facilitam a sua divulgação explorando os processos cognitivos do seu público, as ameaças colocadas pela utilização crescente da inteligência artificial generativa para disseminar desinformação e as consequências mais vastas que esta dinâmica de desinformação tem na opinião pública e, consequentemente, nos processos de tomada de decisão política.
Constatações
Como resultado, o documento fornece uma análise interdisciplinar e holística do fenómeno, referindo-se aos seus elementos pluralizados para destacar a importância da responsabilidade das plataformas, campanhas de literacia mediática entre os cidadãos e cooperação interativa entre os setores público e privado como medidas para aumentar a resiliência contra a ameaça da desinformação.
Originalidade/valor
O estudo destaca a necessidade de aumentar a responsabilização das plataformas, promover a literacia mediática entre os indivíduos e desenvolver a cooperação entre os setores público e privado. O reforço da resiliência à desinformação e a garantia da adaptabilidade da UE face à evolução das ameaças digitais são os objetivos desta estratégia integrada. Em última análise, o documento defende uma estratégia justa e aberta que proteja a liberdade de expressão e reforce as instituições democráticas numa altura em que a desinformação digital está a aumentar.
Tipo de publicação:
Artigo científico
Editora:
Revista de Informação, Comunicação e Ética na Sociedade (2025)
Autores:
Eddie Conti, Alejandro Astruc, Álvaro Parafita, Axel Brando
Resumo:
Compreender como a informação se propaga através de modelos Transformer é um desafio fundamental para a interpretabilidade. Neste trabalho, estudamos os efeitos de perturbações de token mínimas no espaço de incorporação. Em nossos experimentos, analisamos a frequência com que os tokens cedem a mudanças mínimas, destacando que os tokens raros geralmente levam a mudanças maiores. Além disso, estudamos como as perturbações se propagam através das camadas, demonstrando que as informações de entrada estão cada vez mais misturadas em camadas mais profundas. Os resultados validam a suposição comum de que as primeiras camadas de um modelo podem ser usadas como proxies para explicações do modelo. No geral, este trabalho introduz a combinação de perturbações de token e mudanças no espaço de incorporação como uma ferramenta poderosa para a interpretabilidade do modelo.
Tipo de publicação:
Artigo do seminário
Editora:
Seminário IJCAI 2025 sobre inteligência artificial explicável
Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Resumo:
A desinformação é sempre mais induzida pelo recurso a conteúdos realistas alterados ou totalmente gerados sinteticamente, geralmente conhecidos como deepfakes. Tal implica a necessidade de instrumentos fiáveis capazes de revelar esses conteúdos falsos para evitar a polarização do pensamento das pessoas. Foram apresentadas diversas técnicas, cujo denominador comum é procurar algumas inconsistências induzidas pelo processo de geração falsa e evidenciadas pela análise de características específicas. Parece que a possível combinação de várias características distintivas poderia proporcionar resultados mais eficazes. Nesta visão e na sequência do nosso estudo anterior sobre esta matéria, propomo-nos investigar um novo recurso que basicamente leva em conta as relações incorporadas existentes dentro de toda a cena de aquisição no momento da captura da imagem (vídeo) e, em seguida, representadas pelos valores de pixel da imagem. A ideia por trás é que o processo de geração de deepfake pode quebrar tais dependências intrínsecas entre iluminação (intensidade e direção), superfícies de objetos (posição e refletividade) e ruído de aquisição, evidenciando assim uma possível manipulação. De acordo com isso, um descritor de recurso, chamado Local Surface Descriptor, foi construído e usado para treinar modelos baseados em CNN para detecção de deepfake. Os resultados experimentais realizados em diferentes contextos operativos demonstram uma precisão de deteção significativa até 90%.
Tipo de publicação:
Documento de conferência
Editora:
Conferência Internacional do IEEE de 2024 sobre Desafios e Workshops de Processamento de Imagens (ICIPCW), Abu Dabi, Emirados Árabes Unidos, 2024
Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Resumo:
A capacidade real de gerar imagens realistas totalmente sintéticas está a melhorar no dia-a-dia e isso é particularmente verdadeiro para imagens que representam rostos humanos que parecem indistinguíveis de pessoas reais. Isto coloca a necessidade crucial de desenvolver instrumentos capazes de discernir entre pessoas verdadeiras e não existentes através da detecção de eventuais inconsistências incorporadas nas imagens durante o processo de geração. A principal diferença entre uma imagem imaculada e uma imagem gerada por deepfake é que, no segundo caso, não houve uma aquisição de câmara eficaz; Assim, todas as várias inter-relações entre os elementos pertencentes à cena (luzes, reflectância, posições respectivas dos objectos no espaço 3D) não são tomadas pelo mundo real naquele preciso instante de tempo, mas apenas reproduzidas artificialmente. De acordo com essa consideração, neste trabalho, introduzimos quadros de superfície da câmara local como um possível meio para representar essas características ambientais específicas, a fim de destacar as diferenças. A análise experimental realizada tem testemunhado que esta característica pode conceder um nível muito elevado de precisão e um grau significativo de generalização.
Tipo de publicação:
Documento de conferência
Editora:
Conferência Internacional do IEEE de 2024 sobre Desafios e Workshops de Processamento de Imagens (ICIPCW), Abu Dabi, Emirados Árabes Unidos, 2024
Autores:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Resumo:
Imagens irreais extraordinárias podem ser realizadas com técnicas de IA pow-erful. Várias ferramentas disponíveis para todos são capazes de recriar conteúdos de alta qualidade, especialmente a geração de imagens totalmente sintéticas. Entre as arquiteturas existentes, os modelos baseados em difusão podem facilmente produzir qualquer tipo de imagens, incluindo imagens faciais humanas, dando um prompt como um texto. Estes conteúdos falsos são frequentemente utilizados para disseminar a desinformação, o que suscita preocupações quanto à segurança das pessoas. Atualmente, é cada vez mais difícil desenvolver instrumentos fiáveis para distinguir entre pessoas reais e geradas (mesmo não existentes). Além disso, a grande quantidade de implementações baseadas na difusão coloca o problema para que esses detectores se generalizem em novas técnicas generativas. Para abordar estas questões, propomos investigar a capacidade de uma característica distintiva, baseada no ambiente de aquisição de imagem, para individuar imagens faciais baseadas em difusão das imaculadas. Na verdade, as imagens geradas não devem conter as características que são próprias da fase de aquisição realizada através de uma câmara real. Tais inconsistências podem ser destacadas através de estruturas de superfície locais recentemente introduzidas. Esta funcionalidade tem em conta objetos e superfícies envolvidos na cena, que afetam o processo de aquisição da câmara, juntamente com mais informações intrínsecas ligadas ao dispositivo, bem como iluminação e reflexões que afetam todo o cenário. O artigo explora a capacidade deste recurso para generalizar para diferentes conjuntos de dados e novos métodos generativos desconhecidos durante o treinamento. Os resultados experimentais destacam que tal recurso ainda fornece níveis significativos de precisão de detecção também nestes casos.
Tipo de publicação:
Documento de conferência
Editora:
Conferência Internacional do IEEE de 2024 sobre Desafios e Workshops de Processamento de Imagens (ICIPCW), Abu Dabi, Emirados Árabes Unidos, 2024
Autores:
Álvaro Parafita, Tomas Garriga, Axel Brando, Francisco J. Cazorla
Resumo:
Entre as técnicas de explicabilidade, a SHAP destaca-se como uma das mais populares, mas muitas vezes ignora a estrutura causal do problema. Em resposta, o do-SHAP utiliza consultas intervencionais, mas a sua dependência de estimativas dificulta a sua aplicação prática. Para resolver este problema, propomos o uso de abordagens estimando-agnóstico, que permitem a estimativa de qualquer consulta identificável a partir de um único modelo, tornando o do-SHAP viável em gráficos complexos. Também desenvolvemos um novo algoritmo para acelerar significativamente seu cálculo a um custo insignificante, bem como um método para explicar processos de geração de dados inacessíveis. Demonstramos a estimativa e o desempenho computacional da nossa abordagem e validamo-la em dois conjuntos de dados do mundo real, destacando o seu potencial na obtenção de explicações fiáveis.
Tipo de publicação:
Documento de conferência
Editora:
A Trigésima Nona Conferência Anual sobre Sistemas de Processamento de Informação Neural (NeurIPS 2025)
Autores:
Alamgir Munir Qazi, John Philip McCrae, Jamal Nasir
Resumo:
A proliferação de informações falsas exige sistemas de verificação de factos sólidos, mas eficientes do ponto de vista computacional. Embora as abordagens atuais de última geração aproveitem os Grandes Modelos Linguísticos (LLMs) para gerar justificativas explicativas, estes métodos enfrentam barreiras computacionais significativas e riscos de alucinação em implantações do mundo real. Apresentamos DeReC (Dense Retrieval Classification), uma estrutura leve que demonstra como as incorporações de texto de propósito geral podem efetivamente substituir abordagens baseadas em LLM autorregressivas em tarefas de verificação de fato. Ao combinar a recuperação densa com a classificação especializada, o nosso sistema consegue uma melhor precisão ao mesmo tempo que é significativamente mais eficiente. O DeReC supera os LLMs geradores de explicação em eficiência, reduzindo o tempo de execução em 95% em RAWFC (23 minutos 36 segundos em comparação com 454 minutos 12 segundos) e por 92% em LIAR-RAW (134 minutos 14 segundos em comparação com 1692 minutos 23 segundos), mostrando a sua eficácia em diferentes tamanhos de conjuntos de dados. No conjunto de dados da RAWFC, o DeReC alcança uma pontuação de 65,58 na F1.%, ultrapassando o método de ponta L-Defesa (61,20%). Os nossos resultados demonstram que os sistemas baseados na recuperação cuidadosamente concebidos podem igualar ou exceder o desempenho de LLM em tarefas especializadas, ao mesmo tempo que são significativamente mais práticos para a implantação no mundo real.
Tipo de publicação:
Documento de conferência
Editora:
5a Conferência sobre Linguagem, Dados e Conhecimento
Autores:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli e Stefano Berretti
Resumo:
Para o MediaEval 2025 SynthIm Challenge Task A (Synthetic Image Detection), identificámos uma mudança de distribuição crítica entre os dados de treino e teste fornecidos, tornando o primeiro um mau representante para o domínio alvo. A nossa abordagem aborda diretamente este desafio ao incorporar o conjunto de validação mais estilisticamente consistente nos nossos dados de treino e alavancar um CLIP ViT-L/14 congelado como um extrator de funcionalidades robusto. O nosso principal insight é que, sob tais condições de mudança de domínio, as representações generalizáveis de um grande modelo pré-treinado superam significativamente uma CNN tradicional aperfeiçoada no conjunto de dados desajustado, provando ser uma estratégia mais eficaz e confiável.
Tipo de publicação:
Documento de conferência
Editora:
MediaEval»25: Seminário de avaliação multimédia, 25-26 de outubro de 2025, Dublim, Irlanda e em linha
Acesso a pedido
Autores:
Qiushi Li, Roberto Caldelli e Stefano Berretti
Resumo:
O rápido avanço dos modelos de geração de imagens, como o Stable Diffusion, suscita preocupações quanto a uma potencial utilização indevida, tornando as técnicas de marcação de água robustas essenciais para a autenticação e atribuição de conteúdos sintéticos, em especial no combate às falsificações profundas. No entanto, garantir simultaneamente a geração de imagens de alta qualidade e a extração precisa de marcas de água continua a ser um desafio. Através de uma análise dos métodos existentes, identificamos uma limitação crítica:
as suas funções de perda adotam frequentemente uma única referência (a imagem de entrada ou a imagem gerada de forma limpa) para otimizar a fidelidade da imagem, conduzindo a um desempenho subótimo. Neste trabalho, realizamos um estudo aprofundado do termo perda de qualidade de imagem na marca de água à base de difusão. Ao analisar os diferentes impactos da utilização da imagem de entrada versus a imagem gerada de forma limpa como referências durante a otimização, revelamos que considerar conjuntamente ambas as referências melhora significativamente a robustez e a qualidade visual. Experiências extensas demonstram que a nossa abordagem de referência dupla atinge um desempenho superior tanto na precisão da extração de marca de água como na fidelidade da geração em comparação com as linhas de base de referência única. Defendemos este paradigma para avançar a marca de água confiável em modelos generativos.
Tipo de publicação:
Documento de conferência
Editora:
DFF ’25: Atas do 1.o seminário forense sobre falsificações profundas (Deepfake Forensics Workshop): Detecção, Atribuição, Reconhecimento e Desafios Adversários na Era dos Meios de Comunicação Gerados pela IA
Autores:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte, Marc Serra-Vidal
Resumo:
A inteligência artificial (IA) permeia agora infraestruturas críticas e sistemas de tomada de decisões em que as falhas produzem danos sociais, económicos e democráticos. Este documento de posição desafia a convicção enraizada de que a regulamentação e a inovação são opostas. Tal como evidenciado por analogias da aviação, dos produtos farmacêuticos e dos sistemas de proteção social e por casos recentes de desinformação sintética, enviesamento e tomada de decisões irresponsável, a ausência de regulamentação bem concebida já criou danos imensuráveis. A regulamentação, quando ponderada e adaptável, não é um travão à inovação — é a sua base. O presente documento de posição analisa o Regulamento Inteligência Artificial da UE como um modelo de regulamentação baseada no risco e na responsabilidade que aborda o dilema de Collingridge: agir suficientemente cedo para evitar danos, mas com flexibilidade suficiente para sustentar a inovação. Os seus mecanismos de adaptação — ambientes de testagem da regulamentação, apoio às pequenas e médias empresas (PME), ensaios em condições reais, avaliação do impacto nos direitos fundamentais — demonstram de que forma a regulamentação pode acelerar de forma responsável, em vez de atrasar, o progresso tecnológico. O documento de posição resume a forma como os instrumentos de governação transformam os encargos percecionados em vantagens tangíveis: segurança jurídica, confiança dos consumidores e competitividade ética. Em última análise, o documento reformula o progresso: a inovação e a regulamentação avançam em conjunto. Ao integrar a transparência, as avaliações de impacto, a responsabilização e a literacia em IA na conceção e na implantação, o quadro da UE define o que significa verdadeiramente inovação responsável — ambição tecnológica disciplinada pelos valores democráticos e pelos direitos fundamentais.
Tipo de publicação:
Documento de conferência
Editora:
A Trigésima Nona Conferência Anual sobre Sistemas de Processamento de Informação Neural (NeurIPS 2025)
Autor: Pascaline Gaborit
Resumo:
Numa era de incerteza global, a confiança tornou-se um fator crítico que molda as relações entre nações, instituições e indivíduos. Este livro, Confiança, Novas Tecnologias e Geopolítica num Mundo Incerto, oferece uma exploração oportuna e aprofundada de como a confiança está a ser testada e transformada face a paisagens geopolíticas em rápida mutação. Da fragilidade dos sistemas democráticos aos desafios colocados pelas novas tecnologias, pela IA, pela desinformação e pelas alterações climáticas, este livro aborda as questões mais prementes do nosso tempo. Ao examinar as intersecções da confiança com domínios fundamentais como as democracias, as guerras comerciais e as novas tecnologias, este trabalho fornece informações valiosas aos decisores políticos, aos académicos e a qualquer pessoa que procure compreender as complexidades do mundo de hoje. Quer esteja preocupado com a cibersegurança, a desinformação, o impacto das ameaças híbridas ou o papel da confiança na diplomacia internacional, este livro oferece um quadro abrangente, mas acessível, para enfrentar estes desafios. Ele lança luz sobre como compreender a confiança é fundamental para abordar as incertezas geopolíticas que definem a nossa era.
Tipo de publicação:
Livro
Editora:
editor Peter Lang
Autor:
Eddie Conti, Álvaro Parafita, Axel Brando
Resumo:
Avaliar a importância das características individuais na aprendizagem automática é fundamental para compreender o processo de tomada de decisão do modelo. Embora existam numerosos métodos, a falta de uma verdade fundamental definitiva para a comparação destaca a necessidade de medidas alternativas e bem fundamentadas. Este artigo apresenta um novo método de importância de recursos locais pós-hoc chamado Distribuição de Importância Contrafactual (CID). Geramos dois conjuntos de contrafactuais positivos e negativos, modelamos suas distribuições usando a Estimativa de Densidade de Kernel e classificamos as características com base em uma medida de dissimilaridade distributiva. Esta medida, fundamentada em um rigoroso quadro matemático, satisfaz propriedades-chave necessárias para funcionar como uma métrica válida. Demonstramos a eficácia do nosso método comparando-o com explicadores locais bem estabelecidos da importância das características. O nosso método não só oferece perspetivas complementares às abordagens existentes, como também melhora o desempenho das métricas de fidelidade (tanto para a exaustividade como para a suficiência), resultando em explicações mais fiéis do sistema. Estes resultados destacam seu potencial como uma ferramenta valiosa para a análise de modelos.
Tipo de publicação:
Documento de conferência
Editora:
Conferência de Aprendizagem Profunda da Northern Lights 2026
