Club „Journalist“ bei der Union bulgarischer Journalisten, Sofia



EUalive, ein europaweites Medienunternehmen und Mitglied des AI4Debunk-Konsortiums, organisierte eine öffentliche Diskussion, um zu untersuchen, wie KI-gestützte Instrumente die Bemühungen zur Bekämpfung von Falschmeldungen und Desinformation unterstützen können. Die Veranstaltung brachte Journalisten und Bürger zusammen, um über reale Bedürfnisse, Erwartungen und Bedenken im Zusammenhang mit Faktenprüfung, künstlicher Intelligenz und Medienvertrauen zu diskutieren.
Teilnehmer
Insgesamt nahmen 12 Teilnehmer an der Fokusgruppe teil. Die Mehrheit waren professionelle Journalisten, überwiegend über 60 Jahre alt, mit im Allgemeinen konservativeren Ansichten. Die Teilnehmer berichteten, dass sie Informationen hauptsächlich über Online-Nachrichtenagenturen, Fernsehen und Printmedien konsumierten, während sie Facebook und Online-Nachrichtenplattformen als die Hauptquellen identifizierten, in denen sie am häufigsten auf Desinformation stoßen.
Bekämpfung von Fehlinformationen über die Veranstaltung
Die Diskussion begann mit der Entlarvung falscher Behauptungen über das Ereignis selbst. Die Union bulgarischer Journalisten (UBJ) bestritt kategorisch Vorwürfe, sie habe „belarussische Propagandisten“ zu EU-finanzierten Schulungen zur Bekämpfung von Fake News eingeladen. Der UBJ-Vorsitzende erklärte, dass die Anschuldigungen aus einer irreführenden Veröffentlichung des belarussischen Staatsmagazins Minsk News stammten und später von belarussischen Oppositionsmedien ohne Überprüfung wiederholt wurden.
In Wirklichkeit war die Veranstaltung eine einstündige öffentliche Diskussion mit dem Titel „Artificial Intelligence and Fake News: What Is the Working Solution?“ (Was ist die Arbeitslösung?), organisiert von EUalive und ausgerichtet in den Räumlichkeiten des UBJ. Die Diskussion verlief trotz der Medienkontroverse wie geplant und verdeutlichte, wie schnell sich Desinformation auch in professionellen Medienkreisen verbreiten kann.
Vorstellung des AI4Debunk-Projekts
Das EUalive-Team unter der Leitung von Georgi Gotev stellte das AI4Debunk-Projekt vor und skizzierte seine Ziele, Konsortialpartner und bisherigen Fortschritte. Ein Vertreter von F6S gab zusätzliche Einblicke in die technologischen Aspekte des Projekts und die Rolle der Partnerorganisationen. Es wurde betont, dass das Projekt einen klar definierten und begrenzten Umfang hat: Unterstützung der Nutzer bei der Ermittlung und Bewertung von Desinformation, anstatt umfassendere systemische Probleme wie die Erzeugung synthetischer Bilder oder die allgemeine Regulierung von KI zu lösen.
Hauptdiskussionsthemen
Die Teilnehmer reflektierten ausführlich über die Rolle der künstlichen Intelligenz im Informationsökosystem. Mehrere Beispiele wurden diskutiert, um zu veranschaulichen, wie unvollständige oder selektiv präsentierte Informationen zu Desinformation führen können, einschließlich Fällen im Zusammenhang mit historischen Erzählungen und internationaler Berichterstattung.
Ein wiederkehrendes Thema war die Doppelnatur der KI. Während einige Teilnehmer KI als potenziell mächtiges Werkzeug zur Faktenprüfung und -überprüfung betrachteten, äußerten andere Bedenken hinsichtlich ihres Missbrauchs, insbesondere bei der Generierung synthetischer Texte, Bilder und Artikel, die das Publikum irreführen könnten. Fragen im Zusammenhang mit der DSGVO, dem Quellenschutz und der Fähigkeit von Journalisten, ihre Arbeit gegen KI-generierte Inhalte zu verteidigen, wurden ebenfalls angesprochen.
In der Diskussion wurde hervorgehoben, dass KI-Systeme nur so zuverlässig sind wie die Daten, auf denen sie trainiert werden. Da Online-Informationen oft ungenau, voreingenommen oder absichtlich irreführend sind, waren sich die Teilnehmer einig, dass von KI nicht erwartet werden kann, dass sie konsistent objektive Wahrheiten hervorbringt. Diese Einschränkung verstärkt die Bedeutung von Medienkompetenz, menschlichem Urteilsvermögen, professionellen Standards und redaktioneller Verantwortung.
Medienkompetenz, Vertrauen und berufliche Verantwortung
Mehrere Teilnehmer betonten, dass Medienkompetenz sowohl jetzt als auch in Zukunft die kritischste Verteidigung gegen Desinformation bleibt. Journalisten und Bürger müssen in der Lage sein, ihre eigenen Überzeugungen in Frage zu stellen, aus algorithmischen „Informationsblasen“ auszusteigen und nach unterschiedlichen Quellen zu suchen. Es wurden Bedenken hinsichtlich der Zielgruppen geäußert, die erwarten, dass KI die absolute Wahrheit liefert, was die Anfälligkeit für Desinformation erhöhen könnte, die durch KI-Systeme erzeugt oder verstärkt wird.
Eine Umfrage, die während der Diskussion durchgeführt wurde, zeigte, dass die meisten Teilnehmer bereits KI-Tools in ihrer beruflichen Arbeit verwenden. Der Moderator betonte die Bedeutung gesellschaftlicher Mechanismen für die Verifizierung von Informationen sowie die Notwendigkeit einer Aufklärung darüber, wie KI funktioniert, einschließlich einer zeitnahen Formulierung und kritischen Bewertung von KI-Ergebnissen. Die Rolle der Bildungssysteme, insbesondere die Einführung von KI und Medienkompetenz in Schulen, wurde ebenfalls erörtert.
Urheberrecht und Kreativwirtschaft
Die Frage des Urheberrechts stellte sich als ein großes Problem heraus. Die Teilnehmer stellten fest, dass die Entschädigung für Urheberrechtsverletzungen in Bulgarien derzeit minimal ist, was Fragen darüber aufwirft, wie Autoren, Journalisten, Künstler und Musiker ihre Arbeit im Zeitalter der generativen KI schützen können. Einige Teilnehmer äußerten starke Ansichten, dass KI eine direkte Bedrohung für die Kreativwirtschaft darstellt, wobei ein Journalist argumentierte, dass KI ganz aus der künstlerischen Produktion verbannt werden sollte.
Die Teilnehmer füllten eine unten zusammengefasste Umfrage aus:
Exposition gegenüber Desinformation
Die Teilnehmer gaben an, dass sie am häufigsten auf Desinformation über Facebook und in Online-Nachrichtenmedien.
Verifizierungspraktiken
Auf die Frage, wie sie Informationen überprüfen, von denen sie vermuten, dass sie falsch oder irreführend sein könnten, gaben die Befragten an, sich in erster Linie auf Folgendes zu verlassen:
- Suchmaschinen
- Offizielle Quellen,
- Gespräche mit Kollegen, Freunden
Bevorzugte Evidenzformate
- Kurze schriftliche Erklärungen, die klar umreißen, warum Inhalte irreführend sind
- Direkte Links zu zuverlässigen Online-Quellen, die die Korrektur oder Klärung unterstützen
Meldung von Desinformation
Die Teilnehmer wurden gefragt, wie sie es vorziehen würden, Desinformation oder Fake News zu signalisieren oder zu melden. Zu den beliebtesten Berichterstattungsmechanismen gehörten:
- Browsererweiterungen, die es Benutzern ermöglichen, Inhalte direkt in ihrer Browserumgebung zu kennzeichnen
- Mobile Anwendungen, die Zugänglichkeit und Benutzerfreundlichkeit bieten
Bevorzugte Systemfunktionen
Auf die Frage, welche Art von System für die Erkennung von Desinformation am hilfreichsten wäre, nannten die Befragten die folgenden Optionen:
- Mobile Anwendung
- Funktion direkt in Plattformen integriert
- Öffentliche, durchsuchbare Datenbank mit verifizierten Fällen
- KI-unterstützte Warnungen oder Etiketten
Einreichung von Beweisen und Feedback
Die Befragten äußerten die Präferenz für die Vorlage von Beweismitteln in Form eines einfachen Links zu einer Online-Quelle, die die relevanten Informationen enthält. Darüber hinaus herrschte starke Einigkeit darüber, dass die Nutzer nach der Einreichung eines Berichts Feedback erhalten sollten, wobei die meisten Befragten darauf hinwiesen, dass die Bestätigung oder Weiterverfolgung das Vertrauen in das Tool und die weitere Nutzung des Tools erhöhen würde.
Motivation für die Verwendung eines Debunking-Tools
Auf die Frage nach ihrer Hauptmotivation für die Verwendung eines Desinformationserkennungs- oder -berichterstattungsinstruments gaben die Befragten an:
- Bekämpfung von Desinformation
- Verbesserung der allgemeinen Informationsqualität
- Beitrag zur öffentlichen Debatte
Hauptsorgen und Risiken
Schließlich stellten die Befragten mehrere Bedenken im Zusammenhang mit Instrumenten fest, die von den Nutzern die Vorlage von Nachweisen verlangen:
- Risiko einer falschen Validierung von Informationen
- Zeitaufwand für die Nutzung des Tools
- Möglicher Missbrauch durch andere
- Bias in automatisierten Systemen
- Datenschutz- und Datenschutzbedenken




