Vetenskapligt Publikationer
Författare:
Axel Brando, Lucas Berry och David Mege
Sammanfattning:
Generativa diffusionsmodeller, anmärkningsvärda för deras stora parameterantal (över 100 miljoner) och drift inom högdimensionella bildutrymmen, utgör betydande utmaningar för traditionella osäkerhetsuppskattningsmetoder på grund av beräkningskrav. I detta arbete introducerar vi ett innovativt ramverk, Diffusion Ensembles for Capturing Uncertainty (DECU), utformat för att uppskatta epistemisk osäkerhet för diffusionsmodeller. DECU-ramverket introducerar en ny metod som effektivt tränar ensembler av villkorliga diffusionsmodeller genom att införliva en statisk uppsättning förtränade parametrar, vilket drastiskt minskar beräkningsbördan och antalet parametrar som kräver utbildning. Dessutom använder DECU Pairwise-Distance Estimators (PaiDEs) för att noggrant mäta epistemisk osäkerhet genom att utvärdera den ömsesidiga informationen mellan modellutgångar och vikter i högdimensionella utrymmen. Effektiviteten av detta ramverk demonstreras genom experiment på ImageNet-datasetet, vilket belyser dess förmåga att fånga epistemisk osäkerhet, särskilt i underprovade bildklasser.
Typ av publikation:
Konferensdokument
Utgivare:
Den 40:e konferensen om osäkerhet inom artificiell intelligens
Författare:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G. och Falchi F.
Sammanfattning:
På senare tid har den ökande spridningen av syntetiska medier, så kallade deepfakes, möjliggjorts av de snabba framstegen inom artificiell intelligens, särskilt deep learning-algoritmer. Växande oro för den ökande tillgängligheten och trovärdigheten av deepfakes har sporrat forskare att koncentrera sig på att utveckla metoder för att upptäcka dem. På detta område har forskare vid ISTI CNR:s AIMH Lab, i samarbete med forskare från andra organisationer, bedrivit forskning, utredningar och projekt för att bidra till att bekämpa denna trend och utforska nya lösningar och hot. Den här artikeln sammanfattar de senaste insatserna som gjorts på detta område av våra forskare och i samarbete med andra institutioner och experter.
Typ av publikation:
Konferensdokument
Utgivare:
CEUR Workshop Förfaranden
Författare:
Stanciu, Cristian och Ionescu, Bogdan och Cuccovillo, Luca och Papadopoulos, Symeon och Kordopatis-Zilos, Giorgos och Popescu, Adrian och Caldelli, Roberto
Sammanfattning:
Syntetisk mediagenerering och manipulation har sett snabba reklamkampanjer under de senaste åren, vilket gör det allt lättare att skapa multimediainnehåll som är oskiljbart för den mänskliga observatören. Dessutom kan genererat innehåll användas med ont uppsåt av individer och organisationer för att sprida desinformation, vilket utgör ett betydande hot mot samhället och demokratin. Det finns därför ett akut behov av AI-verktyg som är inriktade på att underlätta en snabb och effektiv medieverifieringsprocess. Syftet med workshoppen MAD’24 är att sammanföra människor med olika bakgrund som ägnar sig åt att bekämpa desinformation i multimedia med hjälp av AI, genom att främja en miljö för att utforska innovativa idéer och utbyta erfarenheter. Forskningsområdena av intresse omfattar identifiering av manipulerat eller genererat innehåll, tillsammans med utredning av spridningen av desinformation och dess samhällskonsekvenser. Med tanke på betydelsen av multimedia betonar workshopen den gemensamma analysen av olika modaliteter inom innehåll, eftersom verifieringen kan förbättras genom aggregering av flera former av innehåll.
Typ av publikation:
Konferensdokument
Utgivare:
Förfaranden vid ACM:s tredje internationella workshop om multimedie-AI mot desinformation
Författare:
Andrea Ciamarra, Roberto Caldelli och Alberto Del Bimbo
Sammanfattning:
Att titta på en videosekvens där en förgrundsperson är representerad är inte lika länge sedan längre. Deepfakes har revolutionerat vårt sätt att titta på sådant innehåll och idag är vi oftare vana att undra om det vi ser är verkligt eller bara en mystifikation. I detta sammanhang av generaliserad desinformation är behovet av tillförlitliga lösningar för att hjälpa vanliga användare, och inte bara, att göra en bedömning av denna typ av videosekvenser starkt kommande. I denna uppsats introduceras ett nytt tillvägagångssätt som utnyttjar temporala ytramavvikelser för att avslöja deepfake-videor. Metoden söker efter möjliga avvikelser, framkallade av deepfake manipulation, i ytorna som hör till den fångade scenen och i deras utveckling längs den temporala axeln. Dessa funktioner används som inmatning av en pipeline baserad på djupa neurala nätverk för att utföra en binär bedömning på själva videon. Experimentella resultat vittnar om att en sådan metod kan uppnå betydande prestanda när det gäller detekteringsnoggrannhet.
Typ av publikation:
Konferensdokument
Utgivare:
2024 års IEEE/CVF-konferens om workshoppar om datorseende och mönsterigenkänning (CVPRW)
Författare:
Pascaline Gaborit
Sammanfattning:
Internationella organisationer klassificerar desinformation som ett av de största hoten mot demokrati och institutioner i mer än ett decennium. Digital teknik förnyar och förändrar i grunden moderna livsstilar, medborgar- och företagsmiljöer. AI medför en ny störning i hur vi får tillgång till kunskap och skapar, sprider och förstår information. Det kan också sudda ut gränserna mellan verklig information och manipulerad information i och med framväxten av falska nyheter, automatiska nätverk, korshänvisningar och deep fakes. AI-system ökar potentialen för att skapa realistiskt falskt innehåll och riktade desinformationskampanjer. Desinformation går utöver enkla rykten för att avsiktligt lura och förvränga bevisbaserad information genom fabricerade data. EU-institutionerna har också nyligen fokuserat på att identifiera desinformation kopplad till utländsk informationsmanipulering och inblandning: Utländsk informationsmanipulering och inblandning. I artikeln identifieras trender och farhågor i samband med desinformation och AI. Den undersöker uppfattningen om desinformation, dess effekter och åtgärder, bland annat EU:s AI-akt och onlineplattformarnas politik. Det ger en första analytisk strategi för ämnet baserat på de aktuella debatterna av forskare, de första resultaten av våra 2024-undersökningar, intervjuer och analysen av hundratals falska nyheter online. Den försöker förstå hur medborgare och berörda parter uppfattar desinformation och identifierar möjliga effekter. Det analyserar också de nuvarande utmaningarna och begränsningarna, möjligheterna och begränsningarna för att hantera manipulation och störningar. Artikeln behandlar de nuvarande processerna och effekterna av desinformation (2), presentationen av de viktigaste resultaten av vår onlineundersökning om uppfattningar om desinformation (3), EU:s nuvarande regleringsåtgärder (4) och diskussionspunkterna (5). Vi hävdar i denna artikel att det sker en gigantisk förändring i hur vi får tillgång till information, men att svaren på desinformation fortfarande är i ett tidigt skede. Artikeln visar också att det finns en ökad medvetenhet i de europeiska länderna om effekterna av desinformation, men också en klyfta mellan förmågan att identifiera ”falska nyheter” och desinformation och en begränsad förståelse av de processer, hot och aktörer som deltar i spridningen av desinformation.
Typ av publikation:
Tidningspapper
Utgivare:
Tidskrift för statsvetenskap och internationella relationer
Författare:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra och Axel Brando.
Sammanfattning:
I denna uppsats presenterar vi en ny tillämpning av strukturella kausala modeller (SCM) och förfarandet för bortförande-handling-förutsägelse till en tidsserieinställning i samband med ett verkligt problem inom läkemedelsindustrin. Vi strävar efter att uppskatta kontrafaktiska faktorer för försäljningsvolymen av ett läkemedel som har påverkats av inträdet på marknaden av ett konkurrerande generiskt läkemedel. Vi använder encoder-decoder-baserade arkitekturer, tillämpar en villkorlig variationell autoencoder och introducerar också användningen av villkorliga glesa autoencoders, som aldrig hade använts i kontrafaktisk litteratur. Den föreslagna metoden kräver tillgång till historiska händelser och händelselösa tidsserier och har fördelen att den inte förlitar sig på kontrollkovariater som kan vara otillgängliga, samtidigt som den klart överträffar den grundläggande kontrafaktiska uppskattningen av en prognos. Vi utvärderar vårt tillvägagångssätt med hjälp av vårt företags verkliga försäljningsdataset samt syntetiska och halvsyntetiska dataset som efterliknar problemsammanhanget och visar dess effektivitet. Vi har framgångsrikt tillämpat denna modell i vårt företag, vilket ger användbar information för affärsplanering, investeringsallokering och fastställande av mål.
Typ av publikation:
Workshopartikel
Utgivare:
NeurIPS24-workshop om lärande vid kausala representationer
Författare:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis och Arianna D’Ulizia.
Sammanfattning:
De digitala plattformarnas framväxt har underlättat den snabba spridningen av desinformation, som medför betydande sociala, politiska och ekonomiska utmaningar. Kunskapsgrafer (KG) utvecklas som effektiva verktyg för att förbättra noggrannheten, tolkningsbarheten och skalbarheten hos system för upptäckt av falska nyheter och ta itu med begränsningar i traditionella maskininlärningsbaserade metoder som i första hand bygger på språklig analys. Detta arbete innehåller en litteraturöversikt som syntetiserar resultaten från nyligen genomförda studier om tillämpningen av nyckelgrupper vid upptäckt av desinformation. Vi identifierar hur KG förbättrar detektering genom att koda verkliga relationer, analysera sammanhang och förbättra modelltolkningsförmågan, samtidigt som vi diskuterar nuvarande begränsningar i skalbarhet, datafullständighet och kontextuell anpassningsförmåga. De granskade studierna understryker behovet av framtida forskning med fokus på skalbara, realtids- och språkövergripande KG-modeller för att stärka förmågan att upptäcka desinformation globalt. Dessutom presenterar vi preliminära resultat från två användningsfall, som visar en metod för att konstruera nyckelgrupper som kan fungera som användbara verktyg för att bekämpa spridning av desinformation.
Typ av publikation:
Konferensdokument
Utgivare:
2024 års internationella konferens om teknik och ny teknik (ICEET)
Författare:
Alessia D’Andrea, Giorgia Fusacchia och Arianna D’Ulizia
Sammanfattning:
I detta dokument undersöks Europeiska unionens mångfacetterade svar på den genomgripande frågan om desinformation, en utmaning som har intensifierats sedan annekteringen av Krim 2014. Desinformation utgör ett betydande hot mot demokratiska processer och den allmänna välfärden. EU:s strategi kombinerar lagstiftningsåtgärder, strategiska partnerskap och initiativ för mediekompetens för att ta itu med detta fenomen och samtidigt skydda centrala demokratiska principer, såsom yttrandefriheten. Viktiga åtgärder är uppförandekoden om desinformation och rättsakten om digitala tjänster, som syftar till att hålla digitala plattformar ansvariga och säkerställa transparens. Dessutom belyser initiativ som arbetsgruppen East StratCom och systemet för snabb varning EU:s insatser för att motverka desinformation som ett verktyg för hybridkrigföring. I detta dokument betonas också den kritiska roll som medborgarna spelar, som Europeiska unionen försöker stärka genom program för mediekompetens, så att de kan känna igen och motstå manipulativt innehåll. Genom att undersöka samspelet mellan statliga åtgärder, den privata sektorns deltagande och medborgarnas engagemang ger denna studie en omfattande analys av Europeiska unionens strategi mot desinformation och bedömer de utmaningar och framtida riktningar som krävs för att upprätthålla demokratisk motståndskraft i ett föränderligt digitalt landskap.
Typ av publikation:
Vetenskaplig artikel
Utgivare:
Informationspolitet
Författare:
Alessia D’Andrea, Giorgia Fusacchia och Arianna D’Ulizia
Sammanfattning:
Syfte
Med hjälp av ett tvärvetenskapligt tillvägagångssätt syftar denna studie till att spåra desinformationskampanjernas väg från att de upptäcks av språkliga trovärdighetssignaler till att främjas genom spridningsmekanismerna och slutligen bedöma deras inverkan på det sociopolitiska sammanhanget.
Utformning/metodik/tillvägagångssätt
Denna studie ger en djupgående översikt över fyra grundläggande aspekter av desinformation: de språkliga särdrag som särskiljer innehåll som är utformat för att vilseleda och manipulera den allmänna opinionen, de mediemekanismer som underlättar dess spridning genom att utnyttja publikens kognitiva processer, de hot som den ökande användningen av generativ artificiell intelligens för att sprida desinformation utgör och de bredare konsekvenser som denna desinformationsdynamik har för den allmänna opinionen och följaktligen för de politiska beslutsprocesserna.
Resultat
Som ett resultat ger dokumentet en tvärvetenskaplig och holistisk undersökning av fenomenet, med hänvisning till dess pluraliserade delar för att belysa vikten av plattformsansvar, kampanjer för mediekompetens bland medborgarna och interaktivt samarbete mellan privat och offentlig sektor som åtgärder för att öka motståndskraften mot hotet från desinformation.
Originalitet/värde
Studien belyser behovet av att öka plattformens ansvarsskyldighet, främja mediekompetens bland enskilda personer och utveckla samarbetet mellan den offentliga och den privata sektorn. Målen för denna integrerade strategi är att stärka motståndskraften mot desinformation och säkerställa EU:s anpassningsförmåga mot föränderliga digitala hot. I slutändan förespråkar dokumentet en rättvis och öppen strategi som skyddar yttrandefriheten och stärker de demokratiska institutionerna i en tid då den digitala desinformationen ökar.
Typ av publikation:
Vetenskaplig artikel
Utgivare:
Journal of Information, kommunikation och etik i samhället (2025)
Författare:
Eddie Conti, Alejandro Astruc, Álvaro Parafita och Axel Brando.
Sammanfattning:
Att förstå hur information sprids genom transformatormodeller är en viktig utmaning för tolkningsförmågan. I detta arbete studerar vi effekterna av minimala symboliska störningar på inbäddningsutrymmet. I våra experiment analyserar vi frekvensen av vilka tokens ger minimala skift, vilket belyser att sällsynta tokens vanligtvis leder till större skift. Dessutom studerar vi hur störningar sprider sig över lager, vilket visar att ingångsinformation alltmer blandas i djupare lager. Våra resultat validerar det gemensamma antagandet att de första lagren i en modell kan användas som proxyvariabler för modellförklaringar. Sammantaget introducerar detta arbete kombinationen av tokenstörningar och skift på inbäddningsutrymmet som ett kraftfullt verktyg för modelltolkning.
Typ av publikation:
Workshopartikel
Utgivare:
IJCAI 2025 Workshop om Förklarbar Artificiell Intelligens
Författare:
Andrea Ciamarra, Roberto Caldelli och Alberto Del Bimbo
Sammanfattning:
Desinformation är alltid mer inducerad genom att tillgripa förändrat eller fullständigt syntetiskt genererat realistiskt innehåll, allmänt känt som deepfakes. Detta innebär att det behövs tillförlitliga instrument som kan avslöja sådant falskt innehåll för att undvika polarisering av personers tänkande. Olika tekniker har presenterats, vars gemensamma nämnare är att söka efter vissa inkonsekvenser som induceras av den falska genereringsprocessen och bevisas genom att titta på specifika egenskaper. Det verkar som om den möjliga kombinationen av olika särdrag skulle kunna ge mer effektiva resultat. I denna vy och efter vår tidigare studie i denna fråga föreslår vi att undersöka en ny funktion som i grunden tar hänsyn till de inbyggda relationer som finns inom hela förvärvsscenen vid tidpunkten för bild (video) fånga och sedan representeras av bildpixelvärdena. Tanken bakom är att deepfake generation process kan bryta sådana inneboende beroenden bland belysning (intensitet och riktning), objektytor (position och reflektans) och förvärv buller, vilket visar en möjlig manipulation. Enligt detta har en funktionsdeskriptor, som heter Local Surface Descriptor, konstruerats och använts för att träna CNN-baserade modeller för deepfake-detektering. Experimentella resultat utförda på olika operativa sammanhang visar en signifikant detekteringsnoggrannhet upp till 90%.
Typ av publikation:
Konferensdokument
Utgivare:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Förenade Arabemiraten, 2024
Författare:
Andrea Ciamarra, Roberto Caldelli och Alberto Del Bimbo
Sammanfattning:
Den faktiska kapaciteten att AI-generera realistiska helt syntetiska bilder förbättras dag för dag och detta gäller särskilt för bilder som representerar mänskliga ansikten som verkar omöjliga att skilja från riktiga människor. Detta utgör det avgörande behovet av att utveckla instrument som kan skilja mellan sanna och inte befintliga människor genom att upptäcka vissa eventuella inkonsekvenser inbäddade i bilderna under genereringsprocessen. Den största skillnaden mellan en orörd bild och en deepfake-genererad är att det i det andra fallet inte har varit ett effektivt kameraförvärv; Så alla de olika inbördes förhållandena mellan de element som hör till scenen (ljus, reflektion, objekt respektive positioner i 3D-rymden) tas inte av den verkliga världen i det exakta ögonblicket utan bara artificiellt reproduceras. Enligt ett sådant övervägande introducerar vi i detta arbete lokala kameraytor som ett möjligt sätt att representera dessa specifika miljöegenskaper för att belysa skillnader. Den experimentella analys som genomförts har visat att denna egenskap kan ge en mycket hög grad av noggrannhet och en betydande grad av generalisering.
Typ av publikation:
Konferensdokument
Utgivare:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Förenade Arabemiraten, 2024
Författare:
Andrea Ciamarra, Roberto Caldelli och Alberto Del Bimbo
Sammanfattning:
Extraordinära overkliga bilder kan realiseras med pow-erful AI-tekniker. Olika verktyg som är tillgängliga för alla kan återskapa högkvalitativt innehåll, särskilt generera hela helsyntetiska bilder. Bland de befintliga arkitekturerna kan diffusionsbaserade modeller enkelt producera alla typer av bilder, inklusive mänskliga ansiktsbilder, genom att ge en snabb som en text. Sådant falskt innehåll används ofta för att sprida desinformation och detta väcker oro för människors säkerhet. För närvarande blir det svårt att utveckla tillförlitliga instrument för att skilja mellan verkliga och genererade (även icke-existerande) människor. Dessutom innebär den stora mängden diffusionsbaserade implementeringar ett problem för sådana detektorer att generalisera på nya generativa tekniker. För att ta itu med dessa problem föreslår vi att undersöka förmågan hos ett särskiljande drag, baserat på bildförvärvsmiljön, för att individuera diffusionsbaserade ansiktsbilder från de orörda. I själva verket bör genererade bilder inte innehålla de egenskaper som är lämpliga för förvärvsfasen som utförs genom en riktig kamera. Sådana inkonsekvenser kan belysas med hjälp av nyligen införda lokala ytramar. Den här funktionen tar hänsyn till objekt och ytor som är involverade i scenen, som alla påverkar kamerans förvärvsprocess, tillsammans med ytterligare inneboende information kopplad till enheten, samt belysning och reflektioner som påverkar hela scenariot. I uppsatsen undersöks denna funktions förmåga att generalisera mot olika dataset och nya generativa metoder som är okända under träning. Experimentella resultat belyser att en sådan funktion fortfarande ger betydande nivåer av detektionsnoggrannhet även i dessa fall.
Typ av publikation:
Konferensdokument
Utgivare:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, Förenade Arabemiraten, 2024
Författare:
Álvaro Parafita, Tomas Garriga, Axel Brando och Francisco J. Cazorla.
Sammanfattning:
Bland förklarbarhetstekniker sticker SHAP ut som en av de mest populära, men förbiser ofta problemets kausala struktur. Som svar använder do-SHAP interventionella frågor, men dess beroende av estimands hindrar dess praktiska tillämpning. För att ta itu med detta problem föreslår vi att man använder estimand-agnostiska metoder, som gör det möjligt att uppskatta varje identifierbar fråga från en enda modell, vilket gör do-SHAP genomförbar på komplexa grafer. Vi utvecklar också en ny algoritm för att avsevärt påskynda sin beräkning till en försumbar kostnad, samt en metod för att förklara otillgängliga datagenererande processer. Vi demonstrerar uppskattningen och beräkningsprestandan för vår metod och validerar den på två verkliga dataset, vilket belyser dess potential att få tillförlitliga förklaringar.
Typ av publikation:
Konferensdokument
Utgivare:
Den trettionionde årliga konferensen om neurala informationsbehandlingssystem (NeurIPS 2025)
Författare:
Alamgir Munir Qazi, John Philip McCrae och Jamal Nasir.
Sammanfattning:
Spridningen av felaktig information kräver robusta men beräkningseffektiva faktaverifieringssystem. Medan nuvarande state-of-the-art-metoder utnyttjar stora språkmodeller (LLM) för att generera förklarande resonemang, står dessa metoder inför betydande beräkningshinder och hallucinationsrisker i verkliga implementeringar. Vi presenterar DeReC (Dense Retrieval Classification), ett lättviktigt ramverk som visar hur generella textinbäddningar effektivt kan ersätta autoregressiva LLM-baserade metoder i själva verket verifieringsuppgifter. Genom att kombinera tät hämtning med specialiserad klassificering uppnår vårt system bättre noggrannhet samtidigt som det är betydligt effektivare. DeReC överträffar förklaringsgenererande LLM i effektivitet, vilket minskar körtiden med 95% på RAWFC (23 minuter 36 sekunder jämfört med 454 minuter 12 sekunder) och med 92% på LIAR-RAW (134 minuter 14 sekunder jämfört med 1692 minuter 23 sekunder), som visar dess effektivitet över olika datasetstorlekar. På RAWFC-datauppsättningen uppnår DeReC en F1-poäng på 65,58%, som överträffar den senaste metoden L-Defense (61.20%). Våra resultat visar att noggrant konstruerade hämtningsbaserade system kan matcha eller överträffa LLM-prestanda i specialiserade uppgifter samtidigt som de är betydligt mer praktiska för verklig driftsättning.
Typ av publikation:
Konferensdokument
Utgivare:
Femte konferensen om språk, data och kunskap
Författare:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli och Stefano Berretti
Sammanfattning:
För MediaEval 2025 SynthIm Challenge Task A (Synthetic Image Detection) identifierade vi ett kritiskt distributionsskifte mellan den tillhandahållna utbildnings- och testdatan, vilket gör den förra till en dålig representant för måldomänen. Vårt tillvägagångssätt tar direkt itu med denna utmaning genom att införliva den mer stilistiskt konsekventa valideringsuppsättningen i våra träningsdata och utnyttja en frusen CLIP ViT-L/14 som en robust funktionsutsug. Vår huvudsakliga insikt är att under sådana domänskiftsförhållanden överträffar de generaliserbara representationerna från en stor förtränad modell betydligt en traditionell CNN som finjusteras på den missmatchade datauppsättningen, vilket visar sig vara en mer effektiv och pålitlig strategi.
Typ av publikation:
Konferensdokument
Utgivare:
MediaEval”25: Multimedia Evaluation Workshop, 25–26 oktober 2025, Dublin, Irland och online
Tillgång på begäran
Författare:
Qiushi Li, Roberto Caldelli och Stefano Berretti
Sammanfattning:
Den snabba utvecklingen av bildgenereringsmodeller som Stable Diffusion väcker farhågor om potentiellt missbruk, vilket gör robusta vattenmärkningstekniker nödvändiga för autentisering och tillskrivning av syntetiskt innehåll, särskilt för att bekämpa deepfakes. Att samtidigt säkerställa bildgenerering av hög kvalitet och korrekt vattenstämpelutvinning är dock fortfarande en utmaning. Genom en analys av befintliga metoder identifierar vi en kritisk begränsning:
Deras förlustfunktioner använder ofta en enda referens (antingen inmatningsbilden eller den rengenererade bilden) för att optimera bildåtergivningen, vilket leder till suboptimala prestanda. I denna uppsats genomför vi en fördjupad studie av bildkvalitetsförlusttermen i diffusionsbaserad vattenmärkning. Genom att analysera de tydliga effekterna av att använda inmatningsbilden kontra den rengenererade bilden som referenser under optimeringen, avslöjar vi att gemensamt övervägande av båda referenserna avsevärt förbättrar robusthet och visuell kvalitet. Omfattande experiment visar att vår dual-reference strategi uppnår överlägsen prestanda i både vattenstämpel extraktion noggrannhet och generation trohet jämfört med en enda referens baslinjer. Vi förespråkar detta paradigm för att främja tillförlitlig vattenmärkning i generativa modeller.
Typ av publikation:
Konferensdokument
Utgivare:
DFF ’25: Förfaranden av den 1: a på Deepfake Forensics Workshop: Upptäckt, erkännande, erkännande och kontradiktoriska utmaningar i en tid präglad av AI-genererade medier
Författare:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte och Marc Serra-Vidal.
Sammanfattning:
Artificiell intelligens (AI) genomsyrar nu kritisk infrastruktur och beslutssystem där misslyckanden orsakar social, ekonomisk och demokratisk skada. Detta ståndpunktsdokument utmanar den förankrade tron att reglering och innovation är motsatser. Som framgår av analogier från luftfart, läkemedel och välfärdssystem och de senaste fallen av syntetisk felaktig information, partiskhet och oansvarigt beslutsfattande har avsaknaden av väl utformad reglering redan skapat omätliga skador. Reglering, när den är genomtänkt och anpassningsbar, är inte en broms för innovation – den är grunden. I detta ståndpunktsdokument undersöks EU:s AI-akt som en modell för riskbaserad, ansvarsdriven reglering som tar upp Collingridge Dilemma: agera tillräckligt tidigt för att förhindra skada, men ändå tillräckligt flexibelt för att upprätthålla innovation. Dess anpassningsmekanismer – regulatoriska sandlådor, stöd till små och medelstora företag, testning under verkliga förhållanden och konsekvensbedömning avseende grundläggande rättigheter – visar hur lagstiftningen kan påskynda den tekniska utvecklingen på ett ansvarsfullt sätt, snarare än försena den. I ståndpunktsdokumentet sammanfattas hur styrningsverktyg omvandlar upplevda bördor till konkreta fördelar: rättssäkerhet, konsumentförtroende och etisk konkurrenskraft. I slutändan, papper reframes framsteg: Innovation och reglering går framåt tillsammans. Genom att integrera transparens, konsekvensbedömningar, ansvarsskyldighet och AI-kompetens i utformningen och införandet definierar EU-ramen vad ansvarsfull innovation verkligen innebär – tekniska ambitioner som styrs av demokratiska värden och grundläggande rättigheter.
Typ av publikation:
Konferensdokument
Utgivare:
Den trettionionde årliga konferensen om neurala informationsbehandlingssystem (NeurIPS 2025)
Författare: Pascaline Gaborit
Sammanfattning:
I en tid av global osäkerhet har förtroende blivit en kritisk faktor som formar relationerna mellan nationer, institutioner och individer. Denna bok, Trust, New Technologies and Geopolitics in an Uncertain World, erbjuder en snabb och djupgående undersökning av hur förtroende testas och omvandlas inför snabbt skiftande geopolitiska landskap. Från bräcklighet demokratiska system till de utmaningar som ny teknik, AI, desinformation och klimatförändringar, denna bok gräver i de mest angelägna frågorna i vår tid. Genom att undersöka skärningspunkterna mellan förtroende och viktiga områden som demokratier, handelskrig och ny teknik ger detta arbete värdefulla insikter för beslutsfattare, forskare och alla som vill förstå komplexiteten i dagens värld. Oavsett om du är oroad över cybersäkerhet, desinformation, effekterna av hybridhot eller rollen som förtroende för internationell diplomati, erbjuder den här boken en omfattande men ändå tillgänglig ram för att navigera i dessa utmaningar. Det belyser hur förståelse för förtroende är nyckeln till att ta itu med de geopolitiska osäkerheter som definierar vår ålder.
Typ av publikation:
Bok
Utgivare:
Peter Lang Förläggare
Författare:
Eddie Conti, Álvaro Parafita och Axel Brando
Sammanfattning:
Att bedöma betydelsen av enskilda funktioner i maskininlärning är avgörande för att förstå modellens beslutsprocess. Även om det finns många metoder belyser bristen på en definitiv grundsanning för jämförelse behovet av alternativa, välgrundade åtgärder. Denna uppsats introducerar en ny post-hoc lokal funktionsviktsmetod som kallas kontrafaktisk betydelsefördelning (CID). Vi genererar två uppsättningar positiva och negativa kontrafaktiska faktorer, modellerar deras fördelningar med hjälp av Kernel Density Estimation och rangordnar funktioner baserat på ett fördelningsmässigt olikhetsmått. Denna åtgärd, grundad i en rigorös matematisk ram, uppfyller viktiga egenskaper som krävs för att fungera som ett giltigt mått. Vi visar effektiviteten i vår metod genom att jämföra med väletablerade lokala funktionsförklarare. Vår metod erbjuder inte bara kompletterande perspektiv till befintliga tillvägagångssätt, utan förbättrar också prestanda på trohetsmått (både för fullständighet och tillräcklighet), vilket resulterar i mer trogna förklaringar av systemet. Dessa resultat belyser dess potential som ett värdefullt verktyg för modellanalys.
Typ av publikation:
Konferensdokument
Utgivare:
Konferens om djupinlärning för norrsken 2026
