Über uns AI4Debunk

Methodik und Ergebnisse

Unsere Technologien

Angesichts des multimodalen Charakters von Nachrichten heutzutage und der Bedeutung des Kontexts, um die Bedeutung zu verstehen, nutzt AI4Debunk die Leistungsfähigkeit modernster monomodaler und multimodaler Technologien für maschinelles Lernen sowie Wissensgraphen, um relevante Informationen aus Daten zu extrahieren und Desinformationsmuster und -trends zu erkennen. Wir schlagen auch einen Human-in-the-Loop-Mechanismus (HITL) vor, um die Datenqualität zu verbessern und mehr Vertrauen in den Prozess zu schaffen.

Sprachmodelle und große Sprachmodelle

Vision-Modelle und große Vision-Modelle

Sprachverarbeitung

Multimodales maschinelles Lernen

Human-in-the-Loop-Mechanismen

Wissensdiagramme

Unsere Methodik

Die Methodik von AI4Debunk nutzt die Zusammenarbeit zwischen Mensch und KI, um Desinformation – durch Inhaltsanalyse, Faktenprüfung und Netzwerkanalyse – wirksam zu bekämpfen und das Vertrauen zwischen Nutzern und Online-Informationsquellen zu stärken. Dieser ganzheitliche Ansatz umfasst:

Multimodaler Wissensgraph: Integration verschiedener Datentypen wie Text, Bilder, Videos und Audio, um einen umfassenden Überblick über ein Thema zu bieten und Unstimmigkeiten zwischen den Quellen aufzudecken.

Monomodaler Wissensgraph: dient als Backup-Lösung, die multimodale Daten in Text umwandelt (mit Objekterkennung, Bildbeschreibung, Aktionserkennung in Video oder Audio usw.).

Monomodale Fake-News-Erkennungsmodule: Unterscheidung zwischen authentischen und manipulierten Inhalten (künstlich modifiziert oder synthetisch erstellt) für Text-, Bild-, Video- und Audiodaten.

Multimodale Fake-News-Erkennungsmodule: Integration von Ergebnissen aus monomodalen Fake-News-Detektoren und kontextuellen Informationen aus dem Wissensgraphen, um Nachrichten auf der Grundlage von Datenmustern in Text, Bildern, Videos und Audio als echt oder gefälscht einzustufen.

AI4Debunk hat es sich zur Aufgabe gemacht, KI-basierte Modelle zu verbessern, um Erklärungen und Vertrauen in ihre Fake-News-Erkennung zu liefern. Dies wird Folgendes hervorheben:

  • welche Aspekte der Nachrichtensendung für die Aufdeckung von Fake News am relevantesten sind;

  • welche Modalitäten (Text, Bild, Audio oder Video) einen stärkeren Einfluss auf die endgültige Entscheidung haben.

AI4Debunk wird zwei Fallstudien durchführen, um seinen ganzheitlichen Ansatz zur Bekämpfung von Desinformation zu validieren:

  1. Russische Propaganda im Zusammenhang mit dem Krieg in der Ukraine
  2. Manipulierte Inhalte zum Klimawandel

Diese Fallstudien werden die Ermittlung von Zielgruppen, Desinformationsquellen und Verbreitungsmethoden umfassen und zur Formulierung technischer Anforderungen und funktionaler Bedürfnisse für die Schnittstellen von AI4Debunk führen.

Das primäre Ziel ist es, Desinformationsprozesse zu verstehen, sie zu gestalten und zu modellieren und anschließend Werkzeuge für Analyse und Gegenmaßnahmen zu entwickeln.

Beide Fallstudien werden in Wissensgraphen abgebildet. Solche Grafiken werden kontextbezogene Einblicke für die weitere Erkennung von Fake News bieten. Regelmäßige Aktualisierungen werden durch kuratiertes Bürgerfeedback und die Integration neuer kuratierter Daten erleichtert.

Im Rahmen seiner Methodik wird AI4Debunk eine allgemeine soziologische Bewertung der entwickelten Instrumente und ihrer Auswirkungen für die beiden Fallstudien durchführen:

  • Berichte und eingehende Analysen Resilienzmechanismen;
  • Engagement mit Stakeholdern durch Umfragen, lokale Gruppensitzungen und Fokusgruppendiskussionen;
  • Gleichstellung der Geschlechter und Engagement-Prozesse zur Operationalisierung von Strategien, Programmen und Interventionen in Desinformationsmechanismen.

AI4Debunk setzt sich für die Förderung der Medienkompetenz ein und wird didaktische Ressourcen schaffen, um das Präsenztraining in der Erkennung von Fake News zu unterstützen und die jüngeren Generationen mit den Fähigkeiten auszustatten, Informationen kritisch zu bewerten und zu filtern, ohne getäuscht zu werden. Diese Ressourcen sind:

  • Comic-Bücher
    Die Comic-Bücher wurden auf der Grundlage der Projektforschung zu Fake News entwickelt und dienen als ansprechendes Instrument, um das Bewusstsein zu schärfen und Leitlinien zur Aufdeckung von Desinformation im Internet bereitzustellen. Sie werden von Fragebögen begleitet, um die Lernergebnisse zu bewerten.
  • Spiele
    Die Spiele wurden in Zusammenarbeit mit Lehrern entwickelt und getestet und bieten den Schülern ein interaktives Erlebnis, das die Folgen von Fake News veranschaulicht und praktische Einblicke liefert.

Beide Materialien werden zunächst an weiterführende Schulen in den Niederlanden und Belgien verteilt, mit Plänen für eine breitere Verfügbarkeit in weiterführenden Schulen in ganz Europa.

UNSERE INTERFACES

Aufbauend auf der oben beschriebenen Methodik wird AI4Debunk eine Entlarvungs-API und eine Reihe von Schnittstellen entwickeln, um die Benutzer bei der Bewertung der Genauigkeit von Online-Inhalten zu unterstützen.

API

Offene Quelle. Integriert KI- und ML-Algorithmen, um einen Desinformationswahrscheinlichkeitswert (Disinfoscore) zu berechnen und verdächtige Inhalte zu kennzeichnen.

Nach Erhalt von Inhalten als Eingabe wird die API umgehend ihren Disinfoscore zurückgeben. Bei manipulierten Inhalten werden auch die Regionen identifiziert, in denen das Signal des ursprünglichen Inhalts manipuliert werden könnte. Darüber hinaus werden sachliche/kontextuelle Informationen bereitgestellt, die die Punktzahl des Inhalts bestätigen.

Web

Plug-in

Entwickelt für Webbrowser und Social-Media-Plattformen. Es bietet Benutzern Echtzeit-Benachrichtigungen und Einblicke in die Zuverlässigkeit und Glaubwürdigkeit der Inhalte, die sie gerade ansehen, unabhängig von ihrem Format.

Disinfopedia

Kollaborative Plattform im Wikipedia-Format. Benutzer können verdächtige Inhalte direkt melden, die dann von menschlichen Experten (ältere Analysten, die für die Medienpartner arbeiten) überprüft und möglicherweise aus dem Verkehr gezogen werden. 

App

Entwickelt für Smartphones und Tablets. Es wird die Richtigkeit von Online-Inhalten, einschließlich Nachrichtenartikeln, Social-Media-Beiträgen, Produktbewertungen und Bildern, überprüfen. Benutzer können Informationen (URLs, Texte oder Bilder) eingeben und die App identifiziert ihr Risiko für Falschheit.

AR/VR

Schnittstelle

Integriert in die mobile App und kompatibel mit AR-Brillen/Headsets, Smartphones, Tablets oder Wearable-Technologie. Es wird den Benutzern ein immersiveres und ansprechenderes Erlebnis bieten und erkennen, ob Dateneingaben sowohl aus der virtuellen als auch aus der physischen Welt (z. B.: geschriebener Text, gesprochene Sprache, Bilder/Videos und Echtzeitinformationen) sind wahr oder gefälscht. 

Lassen Sie uns zusammenfassen

So kommen alle Teile zusammen...