Reunião multilateral

Evento multilateral em Bruxelas

Em 5 de setembro, o Pilot4DEV organizou uma reunião multilateral no Clube de Imprensa, em Bruxelas, que reuniu os principais peritos, investigadores e profissionais para trocar conhecimentos, debater estratégias para combater as notícias falsas e explorar a forma como as ferramentas de IA podem ser concebidas para enfrentar eficazmente estes desafios.

No evento, o projeto AI4Debunk, juntamente com as conclusões iniciais da nossa sondagem em linha em curso ( ⁇inglês, ⁇francês, ⁇alemão, ⁇norueguês, ⁇grego, ⁇letão, ⁇ucraniano) foram apresentadas. Isto preparou o terreno para uma animada mesa-redonda, cujos principais destaques são detalhados abaixo.

1. Conceção das ferramentas dos projetos

O debate não só enfatizou os aspetos societais da desinformação, como também examinou os fatores psicológicos individuais que tornam alguém vulnerável a informações manipuladas em linha. Sugeriu-se que estes elementos psicológicos fossem tidos em conta na conceção das ferramentas de IA do projeto destinadas a combater a desinformação.

Os participantes manifestaram interesse na conceção das ferramentas, questionando a seleção das quatro interfaces específicas – Web plug-in, Disinfopedia, App e AR/VR – e a forma como se alinham com os objetivos do projeto. Foram manifestadas preocupações quanto à garantia de que as ferramentas são acessíveis ao público em geral, especialmente às pessoas que mais delas podem beneficiar, como os idosos ou as pessoas com menos conhecimentos tecnológicos. Embora houvesse algum ceticismo sobre se esses grupos adotariam prontamente aplicativos ou sistemas de AR/VR, o consenso geral era que as ferramentas, especialmente a App, devem ser de fácil utilização.

O debate centrou-se principalmente no reforço da confiança enquanto fonte credível, que os participantes identificaram como crucial para incentivar a utilização generalizada dos instrumentos. Várias partes interessadas reconheceram o desafio de criar confiança, mesmo para verificadores de factos reconhecidos. As pessoas vulneráveis, em particular, foram vistas como menos propensas a confiar em ferramentas de verificação de factos impulsionadas pela IA, enquanto os utilizadores mais informados podem estar dispostos a experimentá-las.  

2. Desinformação vs. desinformação

Os participantes também inquiriram sobre as nossas definições de «desinformação» e «desinformação». Tal conduziu a um debate mais amplo sobre o conceito de notícias falsas e os seus vários matizes: Existem informações falsas num espetro que vai da desinformação não intencional à desinformação deliberada.

A forma como a informação é enquadrada, especialmente através do uso da linguagem emocional, foi vista como um fator que influencia a forma como os leitores interpretam o conteúdo. Alguns observaram que já existem sistemas de IA que podem avaliar o tom emocional dos artigos, mas foi expressa cautela sobre o risco de generalizar excessivamente diferentes tipos de informações falsas.

Dada a complexidade de determinar a verdade, os verificadores de factos continuam a confiar na análise humana — uma abordagem também central para a nossa Disinfopedia. Houve um debate sobre se os meios de comunicação estabelecidos devem ser notificados quando publicam informações incorretas, com alguns a defenderem uma maior colaboração entre jornalistas e verificadores de factos para garantir a exatidão das notícias. A transparência dos jornalistas quando cometem erros foi vista como fundamental para manter a confiança do público.

3. Intervenientes maliciosos e ingerência estrangeira

Em seguida, o debate deslocou-se para o papel dos intervenientes mal-intencionados na propagação da desinformação. Identificar estes atores e rastrear as origens de tais ameaças é muitas vezes incrivelmente difícil. A equipa do DisinfoLab partilhou ideias da sua extensa investigação sobre este tema, apontando para as suas descobertas publicadas disponíveis em este relatório.

Os participantes estavam curiosos sobre nossas próprias experiências em rastrear atores maliciosos. Com base no nosso estudo de caso, realçámos a forma como as táticas de desinformação russas se revelaram particularmente adaptativas. Por exemplo, a sua estratégia em plataformas como o TikTok centra-se em atrair públicos mais jovens e liberais com conteúdos envolventes, introduzindo gradualmente propaganda após o primeiro reforço da confiança. Esta abordagem de integrar a desinformação em narrativas que ressoam com a demografia específica representa uma ameaça crescente, especialmente em plataformas com controlos de desinformação mais fracos, como o TikTok, em comparação com outras plataformas, como a Meta ou a X (anteriormente Twitter).

4. IA e pensamento crítico

Outro ponto importante levantado foi a necessidade de evitar confiar cegamente na IA ao combater as notícias falsas e, em vez disso, incentivar a curiosidade e a compreensão de como os sistemas de IA funcionam.

Alguns participantes apelaram a iniciativas para «desmistificar a IA» e os grandes modelos linguísticos, argumentando que as pessoas frequentemente se envolvem passivamente com a IA sem compreender os seus processos subjacentes. Sugeriram que fomentar a curiosidade sobre a aprendizagem automática desde tenra idade poderia ajudar a tornar estas ferramentas mais acessíveis ao público em geral.

Na verdade, tal faz parte da lógica subjacente à introdução de uma banda desenhada como instrumento educativo no nosso projeto, o que desencadeou um debate sobre se a educação das pessoas sobre o papel da IA na luta contra a desinformação poderia conduzir a uma adoção mais ampla destes instrumentos para além dos profissionais.

As informações obtidas nesta sessão ajudarão a moldar nossos próximos passos. À medida que o projeto AI4Debunk progride, estamos ansiosos para continuar estes esforços colaborativos com as partes interessadas e aperfeiçoar nossas ferramentas.

Mantemo-nos empenhados em promover um maior diálogo e inovação na batalha contra a desinformação, trabalhando em conjunto para construir uma sociedade mais informada e resiliente.

Mais do AI4Debunk

Em 6 de novembro de 2025, realizou-se no Clube de Imprensa de Bruxelas a Mesa-Redonda Multilateral AI4DEBUNK, que reuniu mais de 20 peritos.
Sem esperar por padrões globais, a Ucrânia construiu defesas ágeis baseadas na IA que o Ocidente deve estudar, replicar e dimensionar.
No seu discurso sobre o estado da União de 2025, a presidente Ursula von der Leyen reafirmou a luta da UE contra a desinformação, uma missão que apoiamos na AI4Debunk há mais de dois anos!