Wetenschappelijk Publicaties
Auteurs:
met Axel Brando, Lucas Berry en David Mege
Samenvatting:
Generatieve diffusiemodellen, opmerkelijk vanwege hun grote parameteraantal (meer dan 100 miljoen) en werking binnen hoogdimensionale beeldruimten, vormen aanzienlijke uitdagingen voor traditionele onzekerheidsschattingsmethoden als gevolg van computationele eisen. In dit werk introduceren we een innovatief kader, Diffusion Ensembles for Capturing Uncertainty (DECU), ontworpen voor het schatten van epistemische onzekerheid voor diffusiemodellen. Het DECU-kader introduceert een nieuwe methode die ensembles van voorwaardelijke diffusiemodellen efficiënt traint door een statische reeks vooraf getrainde parameters op te nemen, waardoor de rekenlast en het aantal parameters dat training vereist, drastisch worden verminderd. Daarnaast maakt DECU gebruik van Pairwise-Distance Estimators (PaiDE's) om epistemische onzekerheid nauwkeurig te meten door de wederzijdse informatie tussen modeluitgangen en gewichten in hoogdimensionale ruimtes te evalueren. De effectiviteit van dit kader wordt aangetoond door experimenten op de ImageNet-dataset, waarbij de nadruk wordt gelegd op het vermogen om epistemische onzekerheid vast te leggen, met name in onderbemonsterde beeldklassen.
Soort publicatie:
Conferentiedocument
Uitgever:
De 40e conferentie over onzekerheid op het gebied van artificiële intelligentie
Auteurs:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.
Samenvatting:
In de afgelopen tijd is de toenemende verspreiding van synthetische media, bekend als deepfakes, mogelijk gemaakt door de snelle vooruitgang in kunstmatige intelligentietechnologieën, met name deep learning-algoritmen. Toenemende zorgen over de toenemende beschikbaarheid en geloofwaardigheid van deepfakes hebben onderzoekers ertoe aangezet zich te concentreren op het ontwikkelen van methoden om ze te detecteren. Op dit gebied hebben onderzoekers van het AIMH Lab van ISTI CNR, in samenwerking met onderzoekers van andere organisaties, onderzoek, onderzoeken en projecten uitgevoerd om bij te dragen aan het bestrijden van deze trend en het verkennen van nieuwe oplossingen en bedreigingen. Dit artikel geeft een overzicht van de meest recente inspanningen op dit gebied door onze onderzoekers en in samenwerking met andere instellingen en deskundigen.
Soort publicatie:
Conferentiedocument
Uitgever:
CEUR-workshopprocedure
Auteurs:
Stanciu, Cristian en Ionescu, Bogdan en Cuccovillo, Luca en Papadopoulos, Symeon en Kordopatis-Zilos, Giorgos en Popescu, Adrian en Caldelli, Roberto
Samenvatting:
Synthetische mediageneratie en manipulatie hebben de afgelopen jaren snelle ad-vancements gezien, waardoor het steeds gemakkelijker wordt om multimedia-inhoud te maken die niet te onderscheiden is van de menselijke waarnemer. Bovendien kan gegenereerde inhoud kwaadwillig worden gebruikt door individuen en organisaties om desinformatie te verspreiden, wat een aanzienlijke bedreiging vormt voor de samenleving en de democratie. Daarom is er dringend behoefte aan AI-instrumenten die gericht zijn op het vergemakkelijken van een tijdig en doeltreffend mediaverificatieproces. De MAD’24-workshop is bedoeld om mensen met verschillende achtergronden samen te brengen die zich inzetten voor de bestrijding van desinformatie in multimedia door middel van AI, door een omgeving te bevorderen voor het verkennen van innovatieve ideeën en het delen van ervaringen. De onderzoeksgebieden die van belang zijn, omvatten de identificatie van gemanipuleerde of gegenereerde inhoud, samen met het onderzoek naar de verspreiding van desinformatie en de maatschappelijke gevolgen daarvan. De workshop erkent het belang van multimedia en benadrukt de gezamenlijke analyse van verschillende modaliteiten binnen inhoud, omdat verificatie kan worden verbeterd door meerdere vormen van inhoud te aggregeren.
Soort publicatie:
Conferentiedocument
Uitgever:
Proceedings of the 3rd ACM International Workshop on Multimedia AI against Disinformation
Auteurs:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Samenvatting:
Kijken naar een videoreeks waarin een persoon op de voorgrond wordt weergegeven, is niet meer zo lang geleden. Deepfakes hebben een revolutie teweeggebracht in onze manier om naar dergelijke inhoud te kijken en tegenwoordig zijn we vaker gewend om ons af te vragen of wat we zien echt is of slechts een mystificatie. In deze context van veralgemeende desinformatie is er sterk behoefte aan betrouwbare oplossingen om gewone gebruikers te helpen, en niet alleen, om een beoordeling te maken van dit soort videoreeksen. In dit artikel wordt een nieuwe benadering geïntroduceerd die gebruikmaakt van tijdelijke anomalieën van het oppervlakframe om deepfake-video's te onthullen. De methode zoekt naar mogelijke discrepanties, veroorzaakt door deepfake-manipulatie, in de oppervlakken die behoren tot de vastgelegde scène en in hun evolutie langs de temporele as. Deze functies worden gebruikt als input van een pijplijn op basis van diepe neurale netwerken om een binaire beoordeling op de video zelf uit te voeren. Experimentele resultaten getuigen dat een dergelijke methodologie significante prestaties op het gebied van detectienauwkeurigheid kan bereiken.
Soort publicatie:
Conferentiedocument
Uitgever:
IEEE/CVF-conferentie 2024 over workshops over computervisie en patroonherkenning (CVPRW)
Auteurs:
Pascaline Gaborit
Samenvatting:
Internationale organisaties classificeren desinformatie als een van de belangrijkste bedreigingen voor de democratie en instellingen voor meer dan een decennium. Digitale technologieën vinden moderne levensstijlen, burger- en bedrijfsomgevingen opnieuw uit en transformeren deze ingrijpend. AI brengt een nieuwe verstoring met zich mee in de manier waarop we toegang krijgen tot kennis en informatie creëren, verspreiden en begrijpen. Het kan ook de grenzen tussen echte informatie en gemanipuleerde informatie vervagen met de opkomst van “Fake News”, kruisverwijzingen tussen automatische netwerken en “Deep Fakes”. AI-systemen vergroten het potentieel voor het creëren van realistische nepinhoud en gerichte desinformatiecampagnes. Desinformatie gaat verder dan eenvoudige geruchten om op bewijs gebaseerde informatie opzettelijk te misleiden en te vervormen door middel van gefabriceerde gegevens. De Europese instellingen hebben zich onlangs ook gericht op de identificatie van desinformatie in verband met buitenlandse informatiemanipulatie en inmenging: Manipulatie en inmenging van buitenlandse informatie. Het artikel identificeert trends en zorgen in verband met desinformatie en AI. Het onderzoekt de perceptie van desinformatie, de gevolgen ervan en de reacties daarop, waaronder de AI-verordening van de EU en het beleid van onlineplatforms. Het biedt een eerste analytische benadering van het onderwerp op basis van de huidige debatten van onderzoekers, de eerste bevindingen van onze enquêtes van 2024, interviews en de analyse van honderden online nepnieuwsartikelen. Het probeert te begrijpen hoe burgers en belanghebbenden desinformatie waarnemen en identificeert mogelijke gevolgen. Het analyseert ook de huidige uitdagingen en beperkingen, kansen en beperkingen om manipulatie en interferentie aan te pakken. In het artikel wordt ingegaan op de huidige processen en effecten van desinformatie (2), de presentatie van de belangrijkste bevindingen van onze online-enquête over de perceptie van desinformatie (3), de huidige EU-regelgevingsreacties (4) en de discussiepunten (5). We stellen in dit artikel dat er een gigantische verandering is in de manier waarop we toegang krijgen tot informatie, maar dat de reacties op desinformatie zich nog in een vroeg stadium bevinden. Het artikel toont ook aan dat de Europese landen zich meer bewust zijn van de gevolgen van desinformatie, maar ook dat er een kloof bestaat tussen het vermogen om “nepnieuws” en desinformatie te identificeren en een beperkt inzicht in de processen, bedreigingen en actoren die betrokken zijn bij de verspreiding van desinformatie.
Soort publicatie:
Tijdschrift
Uitgever:
Tijdschrift voor Politieke Wetenschappen en Internationale Betrekkingen
Auteurs:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra, Axel Brando
Samenvatting:
In dit artikel presenteren we een nieuwe toepassing van structurele causale modellen (SCM's) en de abduction-action-prediction procedure op een tijdreeks die zich afspeelt in de context van een reëel probleem in de farmaceutische industrie. We willen contrafeiten schatten voor het verkoopvolume van een geneesmiddel dat is beïnvloed door de toetreding tot de markt van een concurrerend generiek geneesmiddel. We maken gebruik van encoder-decoder gebaseerde architecturen, het toepassen van een voorwaardelijke variatie autoencoder en ook de invoering van het gebruik van voorwaardelijke schaarse autoencoders, die nooit was gebruikt in contrafeitelijke literatuur. De voorgestelde methodologie vereist de beschikbaarheid van historische gebeurtenissen en gebeurtenisloze tijdreeksen en heeft het voordeel dat zij niet afhankelijk is van controlecovariaten die mogelijk niet beschikbaar zijn, terwijl zij duidelijk beter presteert dan de fundamentele contrafeitelijke raming van een prognose. We evalueren onze aanpak aan de hand van de real-world sales dataset van ons bedrijf, evenals synthetische en semi-synthetische datasets die de probleemcontext nabootsen en de doeltreffendheid ervan aantonen. We hebben dit model met succes toegepast in ons bedrijf en bieden nuttige informatie voor bedrijfsplanning, investeringstoewijzing en het stellen van doelstellingen.
Soort publicatie:
Artikel van de workshop
Uitgever:
NeurIPS’24 Workshop over Causaal Vertegenwoordiging Leren
Auteurs:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis, Arianna D’Ulizia
Samenvatting:
De opkomst van digitale platforms heeft de snelle verspreiding van desinformatie vergemakkelijkt, wat aanzienlijke sociale, politieke en economische uitdagingen met zich meebrengt. Kennisgrafieken (KG's) komen naar voren als effectieve instrumenten voor het verbeteren van de nauwkeurigheid, interpreteerbaarheid en schaalbaarheid van nepnieuwsdetectiesystemen, waarbij beperkingen worden aangepakt in traditionele op machine learning gebaseerde benaderingen die voornamelijk gebaseerd zijn op taalkundige analyse. Dit werk bevat een literatuuroverzicht dat bevindingen uit recente studies over de toepassing van KG's bij de opsporing van desinformatie synthetiseert. We identificeren hoe KG's de detectie verbeteren door echte relaties te coderen, context te analyseren en de interpreteerbaarheid van modellen te verbeteren, terwijl we ook de huidige beperkingen in schaalbaarheid, volledigheid van gegevens en contextueel aanpassingsvermogen bespreken. De geëvalueerde studies onderstrepen de noodzaak van toekomstig onderzoek gericht op schaalbare, real-time en cross-linguïstische KG-modellen om desinformatiedetectiemogelijkheden wereldwijd te versterken. Bovendien presenteren we voorlopige resultaten van twee use cases, waarin een methodologie voor de bouw van KG’s wordt gepresenteerd die kan dienen als nuttig instrument om de verspreiding van desinformatie tegen te gaan.
Soort publicatie:
Conferentiedocument
Uitgever:
Internationale conferentie over engineering en opkomende technologieën (ICEET) 2024
Auteurs:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia
Samenvatting:
In dit document wordt ingegaan op de veelzijdige reactie van de Europese Unie op het wijdverbreide probleem van desinformatie, een uitdaging die sinds de annexatie van de Krim in 2014 is toegenomen. Desinformatie vormt een aanzienlijke bedreiging voor democratische processen en het algemeen welzijn. De aanpak van de Europese Unie combineert regelgevingsmaatregelen, strategische partnerschappen en initiatieven op het gebied van mediageletterdheid om dit fenomeen aan te pakken en tegelijkertijd de fundamentele democratische beginselen, zoals de vrijheid van meningsuiting, te waarborgen. Belangrijke maatregelen zijn onder meer de praktijkcode betreffende desinformatie en de wet inzake digitale diensten, die tot doel hebben digitale platforms ter verantwoording te roepen en transparantie te waarborgen. Voorts wijzen initiatieven zoals de East StratCom Task Force en het systeem voor snelle waarschuwingen op de inspanningen van de Europese Unie om desinformatie als instrument van hybride oorlogsvoering tegen te gaan. Dit document benadrukt ook de cruciale rol van burgers, die de Europese Unie wil versterken door middel van programma's voor mediageletterdheid, waardoor ze manipulatieve inhoud kunnen herkennen en weerstaan. Door de interacties tussen overheidsmaatregelen, betrokkenheid van de particuliere sector en betrokkenheid van burgers te onderzoeken, biedt deze studie een uitgebreide analyse van de strategie van de Europese Unie tegen desinformatie en worden de uitdagingen en toekomstige richtingen beoordeeld die nodig zijn om de democratische veerkracht in een evoluerend digitaal landschap te ondersteunen.
Soort publicatie:
Wetenschappelijk artikel
Uitgever:
Informatiepolitie
Auteurs:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia
Samenvatting:
Doel
Met behulp van een multidisciplinaire aanpak heeft deze studie tot doel het pad van desinformatiecampagnes te traceren, van de opsporing ervan door taalkundige aanwijzingen van geloofwaardigheid tot bevordering via de verspreidingsmechanismen, en tot slot de impact ervan op de sociaal-politieke context te beoordelen.
Ontwerp/methodologie/aanpak
Deze studie biedt een diepgaand overzicht van vier fundamentele aspecten van desinformatie: de taalkundige kenmerken die een onderscheid maken tussen inhoud die bedoeld is om de publieke opinie te misleiden en te manipuleren, de mediamechanismen die de verspreiding ervan vergemakkelijken door gebruik te maken van de cognitieve processen van het publiek, de bedreigingen die uitgaan van het toenemende gebruik van generatieve artificiële intelligentie om desinformatie te verspreiden en de bredere gevolgen van deze desinformatiedynamiek voor de publieke opinie en bijgevolg voor politieke besluitvormingsprocessen.
Bevindingen
Als gevolg hiervan biedt het document een interdisciplinair en holistisch onderzoek van het fenomeen, waarbij wordt verwezen naar de gepluriformiseerde elementen ervan om het belang van platformverantwoordelijkheid, mediageletterdheidscampagnes onder burgers en interactieve samenwerking tussen de particuliere en de publieke sector te benadrukken als maatregelen om de weerbaarheid tegen de dreiging van desinformatie te vergroten.
Originaliteit/waarde
De studie benadrukt de noodzaak om de verantwoordingsplicht van platforms te vergroten, mediageletterdheid onder individuen te bevorderen en samenwerking tussen de publieke en private sector te ontwikkelen. Het versterken van de weerbaarheid tegen desinformatie en het waarborgen van het aanpassingsvermogen van de EU in het licht van veranderende digitale dreigingen zijn de doelstellingen van deze geïntegreerde strategie. Uiteindelijk pleit de krant voor een eerlijke en open strategie die de vrijheid van meningsuiting beschermt en democratische instellingen versterkt in een tijd waarin digitale desinformatie toeneemt.
Soort publicatie:
Wetenschappelijk artikel
Uitgever:
Journal of Information, Communication and Ethics in Society (2025) (Tijdschrift voor Informatie, Communicatie en Ethiek in de Samenleving)
Auteurs:
Eddie Conti, Alejandro Astruc, Álvaro Parafita, Axel Brando
Samenvatting:
Begrijpen hoe informatie zich verspreidt via Transformer-modellen is een belangrijke uitdaging voor de interpreteerbaarheid. In dit werk bestuderen we de effecten van minimale token verstoringen op de inbeddingsruimte. In onze experimenten analyseren we de frequentie van welke tokens tot minimale verschuivingen leiden, waarbij we benadrukken dat zeldzame tokens meestal leiden tot grotere verschuivingen. Bovendien bestuderen we hoe verstoringen zich over lagen verspreiden, wat aantoont dat inputinformatie steeds meer wordt vermengd in diepere lagen. Onze bevindingen valideren de algemene veronderstelling dat de eerste lagen van een model kunnen worden gebruikt als proxy's voor modelverklaringen. Over het algemeen introduceert dit werk de combinatie van tokenverstoringen en verschuivingen op de inbeddingsruimte als een krachtig hulpmiddel voor modelinterpreteerbaarheid.
Soort publicatie:
Artikel van de workshop
Uitgever:
IJCAI 2025 Workshop over verklaarbare kunstmatige intelligentie
Auteurs:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Samenvatting:
Desinformatie wordt altijd meer veroorzaakt door toevlucht te nemen tot gewijzigde of volledig synthetisch gegenereerde realistische inhoud die algemeen bekend staat als deepfakes. Dit vereist betrouwbare instrumenten waarmee dergelijke nepinhoud kan worden onthuld om polarisatie van het denken van personen te voorkomen. Er zijn verschillende technieken gepresenteerd, waarvan de gemeenschappelijke noemer is om te zoeken naar enkele inconsistenties die worden veroorzaakt door het nepgeneratieproces en die worden aangetoond door naar specifieke kenmerken te kijken. Het lijkt erop dat de mogelijke combinatie van verschillende onderscheidende kenmerken effectievere resultaten zou kunnen opleveren. In deze visie en na onze eerdere studie over deze kwestie, stellen we voor om een nieuwe functie te onderzoeken die in principe rekening houdt met de ingebouwde relaties die bestaan binnen de hele acquisitiescène op het moment van het vastleggen van de afbeelding (video) en vervolgens vertegenwoordigd door de pixelwaarden van de afbeelding. Het idee erachter is dat deepfake-generatieproces dergelijke intrinsieke afhankelijkheden tussen verlichting (intensiteit en richting), objectoppervlakken (positie en reflectie) en acquisitiegeluid kan doorbreken, waardoor een mogelijke manipulatie wordt aangetoond. Volgens deze, een functie descriptor, genaamd Local Surface Descriptor, is gebouwd en gebruikt om CNN-gebaseerde modellen te trainen voor deepfake detectie. Experimentele resultaten uitgevoerd op verschillende operationele contexten tonen een significante detectienauwkeurigheid tot 90%.
Soort publicatie:
Conferentiedocument
Uitgever:
IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW) 2024, Abu Dhabi, Verenigde Arabische Emiraten, 2024
Auteurs:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Samenvatting:
De werkelijke capaciteit om AI-gegenereerde realistische volledig synthetische beelden te genereren, verbetert van dag tot dag en dit geldt met name voor foto's die menselijke gezichten vertegenwoordigen die niet te onderscheiden zijn van echte mensen. Dit stelt de cruciale noodzaak om instrumenten te ontwikkelen die in staat zijn om onderscheid te maken tussen echte en niet-bestaande mensen door enkele mogelijke inconsistenties op te sporen die tijdens het generatieproces in de beelden zijn ingebed. Het belangrijkste verschil tussen een ongerept beeld en een deepfake-gegenereerd beeld is dat er in het tweede geval geen effectieve camera-acquisitie is geweest; Dus alle verschillende onderlinge relaties tussen de elementen die tot de scène behoren (lichten, reflectie, object respectieve posities in de 3D-ruimte) worden niet genomen door de echte wereld in dat exacte tijdsmoment, maar gewoon kunstmatig gereproduceerd. Volgens deze overweging introduceren we in dit werk lokale cameraoppervlakframes als een mogelijk middel om deze specifieke milieukenmerken weer te geven om verschillen te benadrukken. Uit de uitgevoerde experimentele analyse is gebleken dat deze eigenschap een zeer hoge mate van nauwkeurigheid en een aanzienlijke mate van generalisatie kan bieden.
Soort publicatie:
Conferentiedocument
Uitgever:
IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW) 2024, Abu Dhabi, Verenigde Arabische Emiraten, 2024
Auteurs:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo
Samenvatting:
Buitengewone onwerkelijke beelden kunnen worden gerealiseerd met krachtige AI-technieken. Verschillende tools die voor iedereen beschikbaar zijn, zijn in staat om inhoud van hoge kwaliteit te recreëren, met name het genereren van volledige volledig synthetische afbeeldingen. Onder de bestaande architecturen kunnen op diffusie gebaseerde modellen gemakkelijk elk soort afbeeldingen produceren, inclusief menselijke gezichtsopnamen, door een prompt als een tekst te geven. Dergelijke valse inhoud wordt vaak gebruikt om desinformatie te verspreiden en dit geeft aanleiding tot bezorgdheid over de veiligheid van mensen. Op dit moment wordt het moeilijk om betrouwbare instrumenten te ontwikkelen om onderscheid te maken tussen echte en gegenereerde (zelfs niet-bestaande) mensen. Bovendien vormt de grote hoeveelheid op diffusie gebaseerde implementaties het probleem voor dergelijke detectoren om te generaliseren over nieuwe generatieve technieken. Om deze problemen aan te pakken, stellen we voor om de capaciteit van een onderscheidend kenmerk te onderzoeken, gebaseerd op de beeldverwervingsomgeving, om op diffusie gebaseerde gezichtsbeelden van de ongerepte te individualiseren. In feite mogen gegenereerde beelden niet de kenmerken bevatten die eigen zijn aan de acquisitiefase die via een echte camera wordt uitgevoerd. Dergelijke inconsistenties kunnen worden geaccentueerd door middel van recent geïntroduceerde lokale oppervlakteframes. Deze functie houdt rekening met objecten en oppervlakken die betrokken zijn bij de scène, die allemaal van invloed zijn op het camera-acquisitieproces, samen met verdere intrinsieke informatie die aan het apparaat is gekoppeld, evenals verlichting en reflecties die het hele scenario beïnvloeden. De paper onderzoekt het vermogen van deze functie om te generaliseren naar verschillende datasets en nieuwe generatieve methoden die tijdens de training onbekend zijn. Experimentele resultaten benadrukken dat een dergelijke functie nog steeds aanzienlijke niveaus van detectienauwkeurigheid biedt, ook in deze gevallen.
Soort publicatie:
Conferentiedocument
Uitgever:
IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW) 2024, Abu Dhabi, Verenigde Arabische Emiraten, 2024
Auteurs:
Álvaro Parafita, Tomas Garriga, Axel Brando, Francisco J. Cazorla
Samenvatting:
Onder verklaarbaarheidstechnieken onderscheidt SHAP zich als een van de meest populaire, maar ziet vaak de causale structuur van het probleem over het hoofd. Als reactie hierop maakt do-SHAP gebruik van interventionele zoekopdrachten, maar het vertrouwen op schattingen belemmert de praktische toepassing ervan. Om dit probleem aan te pakken, stellen we het gebruik van estimand-agnostische benaderingen voor, die het mogelijk maken om elke identificeerbare query uit een enkel model te schatten, waardoor doe-SHAP haalbaar is op complexe grafieken. We ontwikkelen ook een nieuw algoritme om de berekening aanzienlijk te versnellen tegen verwaarloosbare kosten, evenals een methode om ontoegankelijke gegevensgenererende processen uit te leggen. We demonstreren de schatting en computationele prestaties van onze aanpak en valideren deze op twee real-world datasets, waarbij we het potentieel ervan voor het verkrijgen van betrouwbare verklaringen benadrukken.
Soort publicatie:
Conferentiedocument
Uitgever:
De negenendertigste jaarlijkse conferentie over neurale informatieverwerkingssystemen (NeurIPS 2025)
Auteurs:
Alamgir Munir Qazi, John Philip McCrae, Jamal Nasir
Samenvatting:
De verspreiding van onjuiste informatie vereist robuuste maar rekenkundig efficiënte systemen voor feitenverificatie. Hoewel de huidige state-of-the-art benaderingen gebruik maken van Large Language Models (LLM's) voor het genereren van verklarende redeneringen, worden deze methoden geconfronteerd met aanzienlijke computationele barrières en hallucinatierisico's in real-world implementaties. We presenteren DeReC (Dense Retrieval Classification), een lichtgewicht framework dat laat zien hoe algemene tekstinbeddingen effectief autoregressieve LLM-gebaseerde benaderingen kunnen vervangen, in feite verificatietaken. Door dichte retrieval met gespecialiseerde classificatie te combineren, bereikt ons systeem betere nauwkeurigheid terwijl het beduidend efficiënter is. DeReC presteert beter dan uitleggenererende LLM's in efficiëntie, waardoor de runtime met 95 wordt verminderd% op RAWFC (23 minuten 36 seconden in vergelijking met 454 minuten 12 seconden) en 92% op LIAR-RAW (134 minuten 14 seconden in vergelijking met 1692 minuten 23 seconden), waarmee de doeltreffendheid ervan in verschillende datasetgroottes wordt aangetoond. Op de RAWFC dataset haalt DeReC een F1-score van 65,58%, waarmee de geavanceerde methode L-Defense wordt overtroffen (61.20%). Onze resultaten tonen aan dat zorgvuldig ontworpen op ophalen gebaseerde systemen de LLM-prestaties in gespecialiseerde taken kunnen evenaren of overtreffen, terwijl ze aanzienlijk praktischer zijn voor real-world implementatie.
Soort publicatie:
Conferentiedocument
Uitgever:
Vijfde conferentie over taal, data en kennis
Auteurs:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli en Stefano Berretti
Samenvatting:
Voor de MediaEval 2025 SynthIm Challenge Task A (Synthetic Image Detection) hebben we een kritische verschuiving vastgesteld tussen de verstrekte trainings- en testgegevens, waardoor de voormalige een slechte vertegenwoordiger is voor het doeldomein. Onze aanpak pakt deze uitdaging direct aan door de meer stilistisch consistente validatieset op te nemen in onze trainingsgegevens en gebruik te maken van een bevroren CLIP ViT-L/14 als robuuste functieafzuiger. Ons belangrijkste inzicht is dat onder dergelijke domeinverschuivingsomstandigheden de generaliseerbare representaties van een groot voorgetraind model aanzienlijk beter presteren dan een traditionele CNN die is afgestemd op de niet-afgestemde dataset, wat een effectievere en betrouwbaardere strategie blijkt te zijn.
Soort publicatie:
Conferentiedocument
Uitgever:
MediaEval’25: Workshop over multimedia-evaluatie, 25-26 oktober 2025, Dublin, Ierland en Online
Toegang op aanvraag
Auteurs:
Qiushi Li, Roberto Caldelli en Stefano Berretti
Samenvatting:
De snelle ontwikkeling van modellen voor het genereren van afbeeldingen zoals Stable Diffusion werpt bezorgdheid op over mogelijk misbruik, waardoor robuuste watermerktechnieken essentieel zijn voor de authenticatie en toewijzing van synthetische inhoud, met name bij de bestrijding van deepfakes. Tegelijkertijd zorgen voor hoogwaardige beeldgeneratie en nauwkeurige watermerkextractie blijft echter een uitdaging. Aan de hand van een analyse van bestaande methoden identificeren we een kritische beperking:
hun verliesfuncties gebruiken vaak één enkele referentie (het inputbeeld of het clean-generated beeld) voor het optimaliseren van de beeldtrouw, wat leidt tot suboptimale prestaties. In dit artikel voeren we een diepgaand onderzoek uit naar de verliesterm beeldkwaliteit bij watermerking op basis van diffusie. Door de verschillende effecten van het gebruik van het inputbeeld versus het clean-generated beeld als referenties tijdens optimalisatie te analyseren, onthullen we dat het gezamenlijk overwegen van beide referenties de robuustheid en visuele kwaliteit aanzienlijk verbetert. Uitgebreide experimenten tonen aan dat onze dual-reference benadering superieure prestaties behaalt in zowel watermerkextractienauwkeurigheid als generatietrouw in vergelijking met single-reference baselines. We pleiten voor dit paradigma om betrouwbare watermerking in generatieve modellen te bevorderen.
Soort publicatie:
Conferentiedocument
Uitgever:
DFF ’25: Proceedings van de 1st on Deepfake Forensics Workshop: Detectie, attributie, erkenning en tegenstrijdige uitdagingen in het tijdperk van AI-gegenereerde media
Auteurs:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte, Marc Serra-Vidal
Samenvatting:
Kunstmatige intelligentie (AI) doordringt nu kritieke infrastructuren en besluitvormingssystemen waar mislukkingen sociale, economische en democratische schade veroorzaken. Deze position paper daagt de diepgewortelde overtuiging uit dat regelgeving en innovatie tegengestelden zijn. Zoals blijkt uit analogieën van luchtvaart-, farmaceutische en socialezekerheidsstelsels en recente gevallen van synthetische desinformatie, vooroordelen en onverantwoorde besluitvorming, heeft het ontbreken van goed ontworpen regelgeving al onmetelijke schade veroorzaakt. Regelgeving, wanneer doordacht en adaptief, is geen rem op innovatie — het is de basis ervan. In deze standpuntnota wordt de AI-verordening van de EU onderzocht als een model van op risico’s gebaseerde, verantwoordelijkheidsgestuurde regelgeving die het Collingridge-dilemma aanpakt: vroeg genoeg handelen om schade te voorkomen, maar toch flexibel genoeg om innovatie in stand te houden. De aanpassingsmechanismen — testomgevingen voor regelgeving, ondersteuning van kleine en middelgrote ondernemingen (kmo’s), tests in de praktijk, effectbeoordeling van de grondrechten (FRIA) — laten zien hoe regelgeving de technologische vooruitgang op verantwoorde wijze kan versnellen in plaats van vertragen. In de standpuntnota wordt samengevat hoe governance-instrumenten waargenomen lasten omzetten in tastbare voordelen: rechtszekerheid, consumentenvertrouwen en ethisch concurrentievermogen. Uiteindelijk herkadert het document de vooruitgang: innovatie en regelgeving gaan samen vooruit. Door transparantie, effectbeoordelingen, verantwoordingsplicht en AI-geletterdheid in het ontwerp en de uitrol te integreren, definieert het EU-kader wat verantwoorde innovatie werkelijk betekent: technologische ambitie die wordt gedisciplineerd door democratische waarden en grondrechten.
Soort publicatie:
Conferentiedocument
Uitgever:
De negenendertigste jaarlijkse conferentie over neurale informatieverwerkingssystemen (NeurIPS 2025)
Auteur: Pascaline Gaborit
Samenvatting:
In een tijdperk van wereldwijde onzekerheid is vertrouwen een cruciale factor geworden die de relaties tussen naties, instellingen en individuen vormgeeft. Dit boek, Trust, New Technologies and Geopolitics in an Uncertain World, biedt een tijdige en diepgaande verkenning van hoe vertrouwen wordt getest en getransformeerd in het licht van snel veranderende geopolitieke landschappen. Van de kwetsbaarheid van democratische systemen tot de uitdagingen van nieuwe technologieën, AI, desinformatie en klimaatverandering, dit boek gaat dieper in op de meest urgente kwesties van onze tijd. Door de kruispunten van vertrouwen met belangrijke gebieden zoals democratieën, handelsoorlogen en nieuwe technologieën te onderzoeken, biedt dit werk waardevolle inzichten voor beleidsmakers, wetenschappers en iedereen die de complexiteit van de wereld van vandaag wil begrijpen. Of u zich nu bezighoudt met cyberbeveiliging, desinformatie, de impact van hybride bedreigingen of de rol van vertrouwen in internationale diplomatie, dit boek biedt een uitgebreid maar toegankelijk kader om deze uitdagingen het hoofd te bieden. Het werpt licht op hoe het begrijpen van vertrouwen de sleutel is tot het aanpakken van de geopolitieke onzekerheden die onze tijd bepalen.
Soort publicatie:
Boek
Uitgever:
Peter Lang Uitgever
Auteur:
Eddie Conti, Álvaro Parafita, Axel Brando
Samenvatting:
Het is van cruciaal belang om het belang van individuele kenmerken in machine learning te beoordelen om inzicht te krijgen in het besluitvormingsproces van het model. Hoewel er tal van methoden bestaan, wijst het ontbreken van een definitieve vergelijkingsgrond op de noodzaak van alternatieve, gefundeerde maatregelen. Dit artikel introduceert een nieuwe post-hoc lokale functie belangrijkheid methode genaamd Counterfactual Importance Distribution (CID). We genereren twee sets positieve en negatieve nulscenario's, modelleren hun distributies met behulp van Kernel Density Estimation en rangschikken functies op basis van een dissimilariteitsmaatstaf. Deze meting, gebaseerd op een rigoureus wiskundig kader, voldoet aan de belangrijkste eigenschappen die nodig zijn om te functioneren als een geldige metriek. We laten de effectiviteit van onze methode zien door te vergelijken met gevestigde lokale functiebelangverklaarders. Onze methode biedt niet alleen aanvullende perspectieven op bestaande benaderingen, maar verbetert ook de prestaties op getrouwheidsmaatstaven (zowel voor volledigheid als toereikendheid), wat resulteert in meer getrouwe verklaringen van het systeem. Deze resultaten benadrukken het potentieel ervan als een waardevol instrument voor modelanalyse.
Soort publicatie:
Conferentiedocument
Uitgever:
Noorderlicht Deep Learning Conference 2026
