Wissenschaftlich Veröffentlichungen
Autoren:
Axel Brando, Lucas Berry und David Mege
Zusammenfassung:
Generative Diffusionsmodelle, die sich durch ihre große Parameterzahl (über 100 Millionen) und den Betrieb in hochdimensionalen Bildräumen auszeichnen, stellen traditionelle Unsicherheitsschätzungsmethoden aufgrund rechnerischer Anforderungen vor erhebliche Herausforderungen. In dieser Arbeit stellen wir ein innovatives Framework vor, Diffusion Ensembles for Capturing Uncertainty (DECU), das zur Schätzung epistemischer Unsicherheit für Diffusionsmodelle entwickelt wurde. Das DECU-Framework führt eine neuartige Methode ein, die Ensembles von bedingten Diffusionsmodellen effizient trainiert, indem ein statischer Satz vortrainierter Parameter integriert wird, wodurch die Rechenlast und die Anzahl der Parameter, die ein Training erfordern, drastisch reduziert werden. Darüber hinaus verwendet DECU Pairwise-Distance Estimators (PaiDEs), um die epistemische Unsicherheit genau zu messen, indem die gegenseitigen Informationen zwischen Modellergebnissen und Gewichten in hochdimensionalen Räumen ausgewertet werden. Die Wirksamkeit dieses Frameworks wird durch Experimente am ImageNet-Datensatz demonstriert, die seine Fähigkeit zur Erfassung epistemischer Unsicherheit insbesondere in unterbeprobten Bildklassen hervorheben.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
40. Konferenz zur Unsicherheit in der künstlichen Intelligenz
Autoren:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.
Zusammenfassung:
In jüngster Zeit wurde die zunehmende Verbreitung synthetischer Medien, bekannt als Deepfakes, durch den schnellen Fortschritt bei Technologien der künstlichen Intelligenz, insbesondere bei Deep-Learning-Algorithmen, ermöglicht. Wachsende Sorgen über die zunehmende Verfügbarkeit und Glaubwürdigkeit von Deepfakes haben die Forscher angespornt, sich auf die Entwicklung von Methoden zu konzentrieren, um sie zu erkennen. In diesem Bereich haben Forscher des AIMH Lab von ISTI CNR in Zusammenarbeit mit Forschern anderer Organisationen Forschungen, Untersuchungen und Projekte durchgeführt, um zur Bekämpfung dieses Trends beizutragen und neue Lösungen und Bedrohungen zu erforschen. Dieser Artikel fasst die jüngsten Anstrengungen zusammen, die unsere Forscher in diesem Bereich und in Zusammenarbeit mit anderen Institutionen und Experten unternommen haben.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
CEUR Workshop Proceedings
Autoren:
Stanciu, Cristian und Ionescu, Bogdan und Cuccovillo, Luca und Papadopoulos, Symeon und Kordopatis-Zilos, Giorgos und Popescu, Adrian und Caldelli, Roberto
Zusammenfassung:
Synthetische Mediengenerierung und -manipulation haben in den letzten Jahren rasante Werbekampagnen erlebt, die es zunehmend einfacher machen, multimediale Inhalte zu erstellen, die für den menschlichen Beobachter nicht zu unterscheiden sind. Darüber hinaus können generierte Inhalte von Einzelpersonen und Organisationen böswillig verwendet werden, um Desinformation zu verbreiten, was eine erhebliche Bedrohung für die Gesellschaft und die Demokratie darstellt. Daher besteht ein dringender Bedarf an KI-Instrumenten, die darauf ausgerichtet sind, einen zeitnahen und effektiven Medienüberprüfungsprozess zu erleichtern. Der MAD’24-Workshop zielt darauf ab, Menschen mit unterschiedlichem Hintergrund zusammenzubringen, die sich der Bekämpfung von Desinformation in Multimedia mithilfe von KI widmen, indem ein Umfeld für die Erkundung innovativer Ideen und den Erfahrungsaustausch gefördert wird. Die Forschungsschwerpunkte umfassen die Identifizierung manipulierter oder generierter Inhalte sowie die Untersuchung der Verbreitung von Desinformation und ihrer gesellschaftlichen Auswirkungen. In Anerkennung der Bedeutung von Multimedia betont der Workshop die gemeinsame Analyse verschiedener Modalitäten innerhalb von Inhalten, da die Verifizierung durch die Aggregation mehrerer Inhaltsformen verbessert werden kann.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
Proceedings of the 3rd ACM International Workshop on Multimedia AI against Desinformation (Deutsche Übersetzung)
Autoren:
Andrea Ciamarra, Roberto Caldelli und Alberto Del Bimbo
Zusammenfassung:
Der Blick auf eine Videosequenz, in der eine Vordergrundperson vertreten ist, ist längst nicht mehr so alt. Deepfakes haben unsere Art, solche Inhalte zu sehen, revolutioniert, und heutzutage sind wir es häufiger gewohnt, uns zu fragen, ob das, was wir sehen, real ist oder nur eine Mystifizierung ist. In diesem Kontext der allgemeinen Desinformation ist es dringend erforderlich, zuverlässige Lösungen zu finden, um den gemeinsamen Nutzern zu helfen und nicht nur, um eine Bewertung dieser Art von Videosequenzen vorzunehmen. In diesem Beitrag wird ein neuartiger Ansatz vorgestellt, der zeitliche Oberflächenrahmenanomalien nutzt, um Deepfake-Videos aufzudecken. Die Methode sucht nach möglichen Diskrepanzen, die durch Deepfake-Manipulation hervorgerufen werden, in den Oberflächen, die zur erfassten Szene gehören, und in ihrer Entwicklung entlang der zeitlichen Achse. Diese Funktionen werden als Eingabe einer Pipeline verwendet, die auf tiefen neuronalen Netzwerken basiert, um eine binäre Bewertung des Videos selbst durchzuführen. Experimentelle Ergebnisse zeigen, dass eine solche Methodik eine signifikante Leistung in Bezug auf die Detektionsgenauigkeit erzielen kann.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
2024 IEEE/CVF-Konferenz zu Workshops zu Computer Vision und Mustererkennung (CVPRW)
Autoren:
Pascaline Gaborit
Zusammenfassung:
Internationale Organisationen klassifizieren Desinformation seit mehr als einem Jahrzehnt als eine der größten Bedrohungen für Demokratie und Institutionen. Digitale Technologien erfinden moderne Lebensstile, Bürger- und Geschäftsumgebungen neu und verändern sie grundlegend. KI bringt eine neue Störung in der Art und Weise mit sich, wie wir auf Wissen zugreifen und Informationen erstellen, verbreiten und verstehen. Es kann auch die Grenzen zwischen echten und manipulierten Informationen verwischen, wenn „Fake News“, automatische Querverweise auf Netzwerke und „Deep Fakes“ entstehen. KI-Systeme erhöhen das Potenzial für die Erstellung realistischer gefälschter Inhalte und gezielter Desinformationskampagnen. Desinformation geht über einfache Gerüchte hinaus, um evidenzbasierte Informationen durch gefälschte Daten absichtlich zu täuschen und zu verzerren. Die europäischen Institutionen haben sich kürzlich auch auf die Ermittlung von Desinformation im Zusammenhang mit der FIMI konzentriert: Fremde Informationsmanipulation und Interferenz. In dem Artikel werden Trends und Bedenken im Zusammenhang mit Desinformation und KI aufgezeigt. Er untersucht die Wahrnehmung von Desinformation, ihre Auswirkungen und Reaktionen, einschließlich des EU-KI-Gesetzes und der Politik der Online-Plattformen. Es bietet einen ersten analytischen Ansatz für das Thema auf der Grundlage der aktuellen Debatten von Forschern, der ersten Ergebnisse unserer Umfragen 2024, Interviews und der Analyse von Hunderten von Online-Fake-News-Artikeln. Sie versucht zu verstehen, wie Bürger und Interessenträger Desinformation wahrnehmen, und mögliche Auswirkungen zu ermitteln. Es analysiert auch die aktuellen Herausforderungen und Zwänge, Chancen und Grenzen, um Manipulation und Einmischung zu bekämpfen. Der Artikel befasst sich mit den aktuellen Prozessen und Auswirkungen von Desinformation (2), der Präsentation der wichtigsten Ergebnisse unserer Online-Umfrage zur Wahrnehmung von Desinformation (3), den aktuellen regulatorischen Reaktionen der EU (4) und den Diskussionspunkten (5). Wir argumentieren in diesem Artikel, dass es eine gigantische Veränderung in der Art und Weise gibt, wie wir auf Informationen zugreifen, aber dass die Reaktionen auf Desinformation noch in einem frühen Stadium sind. Der Artikel zeigt auch, dass es in den europäischen Ländern ein stärkeres Bewusstsein für die Auswirkungen von Desinformation gibt, aber auch eine Kluft zwischen der Fähigkeit, „Fake News“ und Desinformation zu erkennen, und einem begrenzten Verständnis der Prozesse, Bedrohungen und Akteure, die an der Verbreitung von Desinformation beteiligt sind.
Art der Veröffentlichung:
Zeitungspapier
Herausgeber:
Zeitschrift für Politikwissenschaft und Internationale Beziehungen
Autoren:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra und Axel Brando
Zusammenfassung:
In diesem Beitrag stellen wir eine neuartige Anwendung struktureller kausaler Modelle (SCMs) und des Abduktions-Action-Prediction-Verfahrens auf eine Zeitreiheneinstellung im Kontext eines realen Problems in der pharmazeutischen Industrie vor. Wir zielen darauf ab, kontrafaktische Fakten für das Verkaufsvolumen eines Arzneimittels zu schätzen, das durch den Markteintritt eines konkurrierenden Generikums beeinträchtigt wurde. Wir verwenden Encoder-Decoder-basierte Architekturen, die einen bedingten Variations-Autoencoder verwenden und auch die Verwendung von bedingten spärlichen Autoencodern einführen, die in der kontrafaktischen Literatur nie verwendet wurden. Die vorgeschlagene Methodik erfordert die Verfügbarkeit historischer Ereignis- und ereignisloser Zeitreihen und hat den Vorteil, dass sie sich nicht auf Kontrollkovariaten stützt, die möglicherweise nicht verfügbar sind, während sie die grundlegende kontrafaktische Schätzung einer Prognose deutlich übertrifft. Wir bewerten unseren Ansatz anhand des realen Verkaufsdatensatzes unseres Unternehmens sowie synthetischer und halbsynthetischer Datensätze, die den Problemkontext nachahmen und seine Wirksamkeit demonstrieren. Wir haben dieses Modell in unserem Unternehmen erfolgreich angewendet und liefern nützliche Informationen für die Geschäftsplanung, die Investitionsallokation und die Zielsetzung.
Art der Veröffentlichung:
Workshop-Artikel
Herausgeber:
NeurIPS’24 Workshop zum kausalen Repräsentationslernen
Autoren:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis, Arianna D’Ulizia
Zusammenfassung:
Der Aufstieg digitaler Plattformen hat die rasche Verbreitung von Desinformation erleichtert, die erhebliche soziale, politische und wirtschaftliche Herausforderungen mit sich bringt. Knowledge Graphs (KGs) entwickeln sich zu effektiven Werkzeugen zur Verbesserung der Genauigkeit, Interpretationsfähigkeit und Skalierbarkeit von Fake-News-Erkennungssystemen, indem sie die Einschränkungen traditioneller, auf maschinellem Lernen basierender Ansätze angehen, die sich hauptsächlich auf sprachliche Analysen stützen. Diese Arbeit enthält eine Literaturrecherche, die Erkenntnisse aus aktuellen Studien zur Anwendung von KGs bei der Desinformationserkennung synthetisiert. Wir identifizieren, wie KGs die Erkennung verbessern, indem sie reale Beziehungen kodieren, den Kontext analysieren und die Modellinterpretierbarkeit verbessern, und diskutieren gleichzeitig aktuelle Einschränkungen in Bezug auf Skalierbarkeit, Datenvollständigkeit und kontextbezogene Anpassungsfähigkeit. Die überprüften Studien unterstreichen die Notwendigkeit zukünftiger Forschung, die sich auf skalierbare, echtzeitfähige und sprachübergreifende KG-Modelle konzentriert, um die Fähigkeiten zur Erkennung von Desinformation weltweit zu stärken. Darüber hinaus stellen wir vorläufige Ergebnisse von zwei Anwendungsfällen vor und zeigen eine Methodik für den Aufbau von KGs, die als nützliche Instrumente zur Bekämpfung der Verbreitung von Desinformation dienen können.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
Internationale Konferenz über Technik und neu entstehende Technologien 2024 (ICEET)
Autoren:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia
Zusammenfassung:
In diesem Papier wird die vielschichtige Reaktion der Europäischen Union auf das allgegenwärtige Problem der Desinformation untersucht, eine Herausforderung, die sich seit der Annexion der Krim im Jahr 2014 verschärft hat. Desinformation stellt eine erhebliche Bedrohung für demokratische Prozesse und das Gemeinwohl dar. Der Ansatz der Europäischen Union kombiniert Regulierungsmaßnahmen, strategische Partnerschaften und Initiativen zur Medienkompetenz, um dieses Phänomen anzugehen und gleichzeitig zentrale demokratische Grundsätze wie die Meinungsfreiheit zu wahren. Zu den wichtigsten Maßnahmen gehören der Verhaltenskodex zur Bekämpfung von Desinformation und das Gesetz über digitale Dienste, die darauf abzielen, digitale Plattformen zur Rechenschaft zu ziehen und Transparenz zu gewährleisten. Darüber hinaus unterstreichen Initiativen wie die East StratCom Task Force und das Schnellwarnsystem die Bemühungen der Europäischen Union zur Bekämpfung von Desinformation als Instrument der hybriden Kriegsführung. In diesem Papier wird auch die entscheidende Rolle der Bürger hervorgehoben, die die Europäische Union durch Programme zur Medienkompetenz stärken möchte, damit sie manipulative Inhalte erkennen und sich ihnen widersetzen können. Durch die Untersuchung der Wechselwirkungen zwischen staatlichen Maßnahmen, Beteiligung des Privatsektors und Bürgerbeteiligung bietet diese Studie eine umfassende Analyse der Strategie der Europäischen Union gegen Desinformation und bewertet die Herausforderungen und künftigen Richtungen, die erforderlich sind, um die demokratische Resilienz in einer sich wandelnden digitalen Landschaft aufrechtzuerhalten.
Art der Veröffentlichung:
Wissenschaftlicher Artikel
Herausgeber:
Information Polity
Autoren:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia
Zusammenfassung:
Zweck
Mit einem multidisziplinären Ansatz zielt diese Studie darauf ab, den Weg von Desinformationskampagnen von ihrer Erkennung durch sprachliche Hinweise auf Glaubwürdigkeit bis zur Förderung durch die Verbreitungsmechanismen zu verfolgen und schließlich ihre Auswirkungen auf den soziopolitischen Kontext zu bewerten.
Entwurf/Methodik/Ansatz
Diese Studie bietet einen detaillierten Überblick über vier grundlegende Aspekte von Desinformation: die sprachlichen Merkmale, die Inhalte zur Täuschung und Manipulation der öffentlichen Meinung unterscheiden, die Medienmechanismen, die ihre Verbreitung durch Ausnutzung der kognitiven Prozesse ihres Publikums erleichtern, die Bedrohungen durch den zunehmenden Einsatz generativer künstlicher Intelligenz zur Verbreitung von Desinformation und die breiteren Folgen dieser Desinformationsdynamik für die öffentliche Meinung und folglich für politische Entscheidungsprozesse.
Feststellungen
Infolgedessen bietet das Papier eine interdisziplinäre und ganzheitliche Untersuchung des Phänomens und verweist auf seine pluralisierten Elemente, um die Bedeutung von Plattformverantwortung, Medienkompetenzkampagnen unter den Bürgern und interaktiver Zusammenarbeit zwischen privatem und öffentlichem Sektor als Maßnahmen zur Stärkung der Widerstandsfähigkeit gegen die Bedrohung durch Desinformation hervorzuheben.
Originalität/Wert
Die Studie unterstreicht die Notwendigkeit, die Rechenschaftspflicht der Plattform zu erhöhen, die Medienkompetenz von Einzelpersonen zu fördern und die Zusammenarbeit zwischen dem öffentlichen und dem privaten Sektor auszubauen. Die Stärkung der Widerstandsfähigkeit gegen Desinformation und die Gewährleistung der Anpassungsfähigkeit der EU angesichts der sich wandelnden digitalen Bedrohungen sind die Ziele dieser integrierten Strategie. Letztlich plädiert das Papier für eine faire und offene Strategie, die die Meinungsfreiheit schützt und demokratische Institutionen in einer Zeit stärkt, in der digitale Desinformation auf dem Vormarsch ist.
Art der Veröffentlichung:
Wissenschaftlicher Artikel
Herausgeber:
Journal für Information, Kommunikation und Ethik in der Gesellschaft (2025)
Autoren:
Eddie Conti, Alejandro Astruc, Álvaro Parafita und Axel Brando
Zusammenfassung:
Zu verstehen, wie sich Informationen durch Transformer-Modelle verbreiten, ist eine zentrale Herausforderung für die Interpretationsfähigkeit. In dieser Arbeit untersuchen wir die Auswirkungen minimaler Token-Störungen auf den Einbettungsraum. In unseren Experimenten analysieren wir die Häufigkeit, mit der Token zu minimalen Verschiebungen führen, und betonen, dass seltene Token normalerweise zu größeren Verschiebungen führen. Darüber hinaus untersuchen wir, wie sich Störungen über Schichten hinweg ausbreiten, was zeigt, dass Input-Informationen zunehmend in tieferen Schichten vermischt werden. Unsere Ergebnisse bestätigen die gängige Annahme, dass die ersten Schichten eines Modells als Proxys für Modellerklärungen verwendet werden können. Insgesamt führt diese Arbeit die Kombination von Token-Störungen und Verschiebungen im Einbettungsraum als leistungsfähiges Werkzeug für die Modellinterpretierbarkeit ein.
Art der Veröffentlichung:
Workshop-Artikel
Herausgeber:
IJCAI 2025 Workshop zu erklärbarer künstlicher Intelligenz
Autoren:
Andrea Ciamarra, Roberto Caldelli und Alberto Del Bimbo
Zusammenfassung:
Desinformation wird immer stärker durch den Rückgriff auf veränderte oder vollständig synthetisch erzeugte realistische Inhalte hervorgerufen, die allgemein als Deepfakes bekannt sind. Dies erfordert zuverlässige Instrumente, die in der Lage sind, solche falschen Inhalte aufzudecken, um eine Polarisierung des Denkens der Menschen zu vermeiden. Es wurden verschiedene Techniken vorgestellt, deren gemeinsamer Nenner darin besteht, nach einigen Inkonsistenzen zu suchen, die durch den Fake-Generierungsprozess hervorgerufen und durch die Betrachtung spezifischer Merkmale belegt werden. Es scheint, dass die mögliche Kombination verschiedener Unterscheidungsmerkmale zu effektiveren Ergebnissen führen könnte. In dieser Ansicht und im Anschluss an unsere vorherige Studie zu diesem Thema schlagen wir vor, eine neue Funktion zu untersuchen, die im Wesentlichen die eingebauten Beziehungen berücksichtigt, die zum Zeitpunkt der Bildaufnahme (Video) in der gesamten Aufnahmeszene vorhanden sind und dann durch die Bildpixelwerte dargestellt werden. Die Idee dahinter ist, dass ein Deepfake-Generierungsprozess solche intrinsischen Abhängigkeiten zwischen Beleuchtung (Intensität und Richtung), Objektoberflächen (Position und Reflexion) und Akquiserauschen brechen kann, was eine mögliche Manipulation belegt. Demnach wurde ein Feature-Deskriptor namens Local Surface Descriptor konstruiert und verwendet, um CNN-basierte Modelle für die Deepfake-Erkennung zu trainieren. Experimentelle Ergebnisse, die in verschiedenen operativen Kontexten durchgeführt wurden, zeigen eine signifikante Detektionsgenauigkeit von bis zu 90%.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Vereinigte Arabische Emirate, 2024
Autoren:
Andrea Ciamarra, Roberto Caldelli und Alberto Del Bimbo
Zusammenfassung:
Die tatsächliche Fähigkeit zur KI-Generierung realistischer, vollsynthetischer Bilder verbessert sich von Tag zu Tag, und dies gilt insbesondere für Bilder, die menschliche Gesichter darstellen, die von echten Menschen nicht zu unterscheiden sind. Dies stellt die entscheidende Notwendigkeit dar, Instrumente zu entwickeln, die in der Lage sind, zwischen wahren und nicht existierenden Menschen zu unterscheiden, indem sie einige eventuelle Inkonsistenzen erkennen, die während des Erzeugungsprozesses in die Bilder eingebettet sind. Der Hauptunterschied zwischen einem makellosen Bild und einem Deepfake-Bild besteht darin, dass im zweiten Fall keine effektive Kameraakquisition stattgefunden hat. So werden all die verschiedenen Wechselbeziehungen zwischen den zur Szene gehörenden Elementen (Licht, Reflexion, objektbezogene Positionen im 3D-Raum) von der realen Welt in diesem genauen Zeitmoment nicht aufgenommen, sondern nur künstlich reproduziert. Nach dieser Überlegung führen wir in dieser Arbeit lokale Kameraoberflächenrahmen als mögliches Mittel ein, um diese spezifischen Umweltmerkmale darzustellen, um Unterschiede hervorzuheben. Die experimentelle Analyse hat gezeigt, dass dieses Merkmal eine sehr hohe Genauigkeit und einen signifikanten Grad an Verallgemeinerung gewährleisten kann.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Vereinigte Arabische Emirate, 2024
Autoren:
Andrea Ciamarra, Roberto Caldelli und Alberto Del Bimbo
Zusammenfassung:
Außergewöhnliche unwirkliche Bilder können mit pow-erful KI-Techniken realisiert werden. Verschiedene Tools, die jedem zur Verfügung stehen, sind in der Lage, qualitativ hochwertige Inhalte nachzubilden, insbesondere die Erzeugung vollständig synthetischer Bilder. Unter den bestehenden Architekturen können diffusionsbasierte Modelle leicht jede Art von Bildern, einschließlich menschlicher Gesichtsbilder, erzeugen, indem sie eine Aufforderung wie einen Text geben. Solche falschen Inhalte werden häufig zur Verbreitung von Desinformation verwendet, was Bedenken hinsichtlich der Sicherheit der Menschen aufwirft. Gegenwärtig wird es schwierig, zuverlässige Instrumente zu entwickeln, um zwischen realen und generierten (auch nicht existierenden) Menschen zu unterscheiden. Darüber hinaus stellt die große Menge an diffusionsbasierten Implementierungen das Problem für solche Detektoren dar, sich auf neuartige generative Techniken zu verallgemeinern. Um diese Probleme anzugehen, schlagen wir vor, die Fähigkeit eines Unterscheidungsmerkmals, basierend auf der Bildaufnahmeumgebung, zu untersuchen, um diffusionsbasierte Gesichtsbilder von den ursprünglichen zu individuieren. Tatsächlich sollten generierte Bilder nicht die Eigenschaften enthalten, die der Aufnahmephase entsprechen, die durch eine echte Kamera durchgeführt wird. Solche Unstimmigkeiten können durch kürzlich eingeführte lokale Oberflächenrahmen hervorgehoben werden. Diese Funktion berücksichtigt Objekte und Oberflächen, die an der Szene beteiligt sind, die alle den Kameraerfassungsprozess beeinflussen, zusammen mit weiteren intrinsischen Informationen, die an das Gerät gebunden sind, sowie Beleuchtung und Reflexionen, die das gesamte Szenario beeinflussen. Das Papier untersucht die Fähigkeit dieser Funktion, auf verschiedene Datensätze und neue generative Methoden, die während des Trainings unbekannt sind, zu verallgemeinern. Experimentelle Ergebnisse zeigen, dass ein solches Merkmal auch in diesen Fällen immer noch ein signifikantes Maß an Detektionsgenauigkeit bietet.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Vereinigte Arabische Emirate, 2024
Autoren:
Álvaro Parafita, Tomas Garriga, Axel Brando und Francisco J. Cazorla
Zusammenfassung:
Unter den Erklärbarkeitstechniken sticht SHAP als eine der beliebtesten hervor, übersieht jedoch oft die kausale Struktur des Problems. Als Antwort verwendet do-SHAP interventionelle Abfragen, aber seine Abhängigkeit von Schätzern behindert seine praktische Anwendung. Um dieses Problem anzugehen, schlagen wir die Verwendung von geschätzten und agnostischen Ansätzen vor, die die Schätzung jeder identifizierbaren Abfrage aus einem einzigen Modell ermöglichen und Do-SHAP auf komplexen Graphen möglich machen. Wir entwickeln auch einen neuartigen Algorithmus, um seine Berechnung zu vernachlässigbaren Kosten erheblich zu beschleunigen, sowie eine Methode, um unzugängliche Datengenerierungsprozesse zu erklären. Wir demonstrieren die Schätz- und Rechenleistung unseres Ansatzes und validieren ihn anhand von zwei realen Datensätzen, wobei wir sein Potenzial zur Erlangung zuverlässiger Erklärungen hervorheben.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
Die 39. Jahreskonferenz zu neuronalen Informationsverarbeitungssystemen (NeurIPS 2025)
Autoren:
Alamgir Munir Qazi, John Philip McCrae und Jamal Nasir
Zusammenfassung:
Die Verbreitung von Fehlinformationen erfordert robuste, aber rechnerisch effiziente Faktenüberprüfungssysteme. Während aktuelle State-of-the-Art-Ansätze Large Language Models (LLMs) zur Generierung von Begründungen nutzen, sind diese Methoden in realen Implementierungen mit erheblichen Rechenbarrieren und Halluzinationsrisiken konfrontiert. Wir stellen DeReC (Dense Retrieval Classification) vor, ein leichtes Framework, das zeigt, wie universelle Texteinbettungen autoregressive LLM-basierte Ansätze bei Verifizierungsaufgaben effektiv ersetzen können. Durch die Kombination von dichtem Abruf mit spezialisierter Klassifizierung erreicht unser System eine bessere Genauigkeit und ist gleichzeitig deutlich effizienter. DeReC übertrifft erklärungsgenerierende LLMs in der Effizienz und reduziert die Laufzeit um 95% auf RAWFC (23 Minuten 36 Sekunden im Vergleich zu 454 Minuten 12 Sekunden) und um 92% auf LIAR-RAW (134 Minuten 14 Sekunden im Vergleich zu 1692 Minuten 23 Sekunden) und zeigt seine Wirksamkeit bei unterschiedlichen Datensatzgrößen. Auf dem RAWFC-Datensatz erreicht DeReC einen F1-Score von 65,58%, übertrifft die modernste Methode L-Defense (61,20%). Unsere Ergebnisse zeigen, dass sorgfältig entwickelte Retrieval-basierte Systeme die LLM-Leistung in spezialisierten Aufgaben erfüllen oder übertreffen können, während sie für die reale Bereitstellung deutlich praktischer sind.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
5. Konferenz zu Sprache, Daten und Wissen
Autoren:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli und Stefano Berretti
Zusammenfassung:
Für die MediaEval 2025 SynthIm Challenge Task A (Synthetic Image Detection) identifizierten wir eine kritische Verteilungsverschiebung zwischen den bereitgestellten Trainings- und Testdaten, wodurch erstere zu einem schlechten Repräsentanten für die Zieldomäne wurden. Unser Ansatz geht diese Herausforderung direkt an, indem wir den stilistisch konsistenteren Validierungssatz in unsere Trainingsdaten integrieren und einen eingefrorenen CLIP ViT-L/14 als robusten Feature-Extraktor nutzen. Unsere Haupteinsicht ist, dass unter solchen Domain-Shift-Bedingungen die verallgemeinerbaren Darstellungen eines großen vortrainierten Modells ein traditionelles CNN, das auf den nicht übereinstimmenden Datensatz abgestimmt ist, deutlich übertreffen und sich als effektivere und zuverlässigere Strategie erweisen.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
MediaEval’25: Multimedia-Evaluierungsworkshop, 25.–26. Oktober 2025, Dublin, Irland und Online
Zugang auf Anfrage
Autoren:
Qiushi Li, Roberto Caldelli und Stefano Berretti
Zusammenfassung:
Die rasche Weiterentwicklung von Bilderzeugungsmodellen wie Stable Diffusion wirft Bedenken hinsichtlich eines möglichen Missbrauchs auf, wodurch robuste Wasserzeichentechniken für die Authentifizierung und Zuordnung synthetischer Inhalte, insbesondere bei der Bekämpfung von Deepfakes, unerlässlich sind. Die gleichzeitige Gewährleistung einer qualitativ hochwertigen Bilderzeugung und einer genauen Wasserzeichenextraktion bleibt jedoch eine Herausforderung. Durch eine Analyse bestehender Methoden identifizieren wir eine kritische Einschränkung:
ihre Verlustfunktionen nehmen oft eine einzige Referenz (entweder das Eingabebild oder das sauber generierte Bild) zur Optimierung der Bildtreue an, was zu einer suboptimalen Leistung führt. In diesem Papier führen wir eine eingehende Studie des Begriffs Bildqualitätsverlust bei diffusionsbasiertem Wasserzeichen durch. Durch die Analyse der unterschiedlichen Auswirkungen der Verwendung des Eingabebildes im Vergleich zum sauber generierten Bild als Referenzen während der Optimierung zeigen wir, dass die gemeinsame Betrachtung beider Referenzen die Robustheit und visuelle Qualität signifikant verbessert. Umfangreiche Experimente zeigen, dass unser Dual-Referenz-Ansatz sowohl bei der Wasserzeichenextraktionsgenauigkeit als auch bei der Erzeugungstreue im Vergleich zu Einzelreferenz-Baselines eine überlegene Leistung erzielt. Wir setzen uns für dieses Paradigma ein, um zuverlässige Wasserzeichen in generativen Modellen zu fördern.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
DFF ’25: Proceedings of the 1st on Deepfake Forensics Workshop (Deutsche Übersetzung) Erkennung, Zuordnung, Anerkennung und kontradiktorische Herausforderungen im Zeitalter von KI-generierten Medien
Autoren:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte und Marc Serra-Vidal
Zusammenfassung:
Künstliche Intelligenz (KI) durchdringt heute kritische Infrastrukturen und Entscheidungssysteme, in denen Misserfolge sozialen, wirtschaftlichen und demokratischen Schaden verursachen. Dieses Positionspapier stellt die festgefahrene Überzeugung in Frage, dass Regulierung und Innovation Gegensätze sind. Wie Analogien aus der Luftfahrt, Arzneimitteln und Wohlfahrtssystemen sowie jüngste Fälle von synthetischer Fehlinformation, Voreingenommenheit und nicht rechenschaftspflichtiger Entscheidungsfindung belegen, hat das Fehlen einer gut konzipierten Regulierung bereits einen unermesslichen Schaden verursacht. Regulierung ist, wenn sie nachdenklich und anpassungsfähig ist, keine Innovationsbremse – sie ist ihre Grundlage. Das vorliegende Positionspapier untersucht das EU-KI-Gesetz als Modell einer risikobasierten, verantwortungsorientierten Regulierung, die sich mit dem Collingridge-Dilemma befasst: früh genug handeln, um Schaden zu vermeiden, aber flexibel genug, um Innovationen aufrechtzuerhalten. Seine Anpassungsmechanismen – Reallabore, Unterstützung kleiner und mittlerer Unternehmen (KMU), praktische Tests, Folgenabschätzungen zu den Grundrechten – zeigen, wie Regulierung den technologischen Fortschritt verantwortungsvoll beschleunigen und nicht verzögern kann. Das Positionspapier fasst zusammen, wie Governance-Instrumente wahrgenommene Belastungen in greifbare Vorteile umwandeln: Rechtssicherheit, Verbrauchervertrauen und ethische Wettbewerbsfähigkeit. Letztendlich stellt das Papier den Fortschritt um: Innovation und Regulierung schreiten gemeinsam voran. Durch die Einbettung von Transparenz, Folgenabschätzungen, Rechenschaftspflicht und KI-Kompetenz in die Gestaltung und Einführung definiert der EU-Rahmen, was verantwortungsvolle Innovation wirklich bedeutet – technologische Ambitionen, die durch demokratische Werte und Grundrechte diszipliniert werden.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
Die 39. Jahreskonferenz zu neuronalen Informationsverarbeitungssystemen (NeurIPS 2025)
Verfasser: Pascaline Gaborit
Zusammenfassung:
In einer Zeit globaler Unsicherheit ist Vertrauen zu einem entscheidenden Faktor geworden, der die Beziehungen zwischen Nationen, Institutionen und Individuen prägt. Dieses Buch, Vertrauen, neue Technologien und Geopolitik in einer unsicheren Welt, bietet eine zeitnahe und eingehende Untersuchung, wie Vertrauen angesichts sich schnell verändernder geopolitischer Landschaften getestet und transformiert wird. Von der Fragilität demokratischer Systeme bis hin zu den Herausforderungen durch neue Technologien, KI, Desinformation und Klimawandel beschäftigt sich dieses Buch mit den drängendsten Fragen unserer Zeit. Durch die Untersuchung der Schnittstellen von Vertrauen mit Schlüsselbereichen wie Demokratien, Handelskriegen und neuen Technologien bietet diese Arbeit wertvolle Einblicke für politische Entscheidungsträger, Wissenschaftler und alle, die die Komplexität der heutigen Welt verstehen möchten. Unabhängig davon, ob es um Cybersicherheit, Desinformation, die Auswirkungen hybrider Bedrohungen oder die Rolle des Vertrauens in die internationale Diplomatie geht, bietet dieses Buch einen umfassenden, aber zugänglichen Rahmen, um diese Herausforderungen zu meistern. Es wirft ein Licht darauf, wie das Verständnis von Vertrauen der Schlüssel zur Bewältigung der geopolitischen Unsicherheiten ist, die unser Zeitalter bestimmen.
Art der Veröffentlichung:
Buchen
Herausgeber:
Peter Lang Verlag
Verfasser:
Eddie Conti, Álvaro Parafita und Axel Brando
Zusammenfassung:
Die Bewertung der Bedeutung einzelner Merkmale im maschinellen Lernen ist entscheidend, um den Entscheidungsprozess des Modells zu verstehen. Obwohl es zahlreiche Methoden gibt, unterstreicht das Fehlen einer endgültigen Grundwahrheit für den Vergleich die Notwendigkeit alternativer, fundierter Maßnahmen. Dieses Papier führt eine neue post-hoc-Methode zur Bedeutung lokaler Merkmale ein, die als Counterfactual Importance Distribution (CID) bezeichnet wird. Wir generieren zwei Sätze positiver und negativer Kontrafakten, modellieren ihre Verteilungen mit Kernel Density Estimation und ranken Merkmale basierend auf einem Verteilungsunähnlichkeitsmaß. Dieses Maß, das in einem strengen mathematischen Rahmen geerdet ist, erfüllt Schlüsseleigenschaften, die erforderlich sind, um als gültige Metrik zu funktionieren. Wir zeigen die Wirksamkeit unserer Methode, indem wir sie mit etablierten lokalen Erklärern zur Bedeutung von Merkmalen vergleichen. Unsere Methode bietet nicht nur komplementäre Perspektiven zu bestehenden Ansätzen, sondern verbessert auch die Leistung bei Treue-Metriken (sowohl für Vollständigkeit als auch für Suffizienz), was zu treueren Erklärungen des Systems führt. Diese Ergebnisse verdeutlichen sein Potenzial als wertvolles Werkzeug für die Modellanalyse.
Art der Veröffentlichung:
Konferenzpapier
Herausgeber:
Northern Lights Deep Learning Konferenz 2026
