Videnskabelig Publikationer

Find alle de videnskabelige publikationer, der er udarbejdet af AI4Debunk-partnere, og som præsenterer de seneste videnskabelige resultater af projektet.

Forfattere:
Axel Brando, Lucas Berry og David Mege

Uddybende artikel:
Generative diffusionsmodeller, der er bemærkelsesværdige for deres store parameterantal (over 100 millioner) og drift inden for højdimensionelle billedrum, udgør betydelige udfordringer for traditionelle usikkerhedsberegningsmetoder på grund af beregningsmæssige krav. I dette arbejde introducerer vi en innovativ ramme, Diffusion Ensembles for Capturing Uncertainty (DECU), designet til estimering af epistemisk usikkerhed for diffusionsmodeller. DECU-rammen introducerer en ny metode, der effektivt træner ensembler af betingede diffusionsmodeller ved at indarbejde et statisk sæt præuddannede parametre, hvilket drastisk reducerer beregningsbyrden og antallet af parametre, der kræver træning. Derudover anvender DECU Pairwise-Distance Estimators (PaiDEs) til nøjagtigt at måle epistemisk usikkerhed ved at evaluere den gensidige information mellem modeloutput og vægte i højdimensionelle rum. Effektiviteten af denne ramme demonstreres gennem eksperimenter på ImageNet-datasættet, der fremhæver dets evne til at fange epistemisk usikkerhed, især i underprøvede billedklasser.

Udgivelsestype:
Konferencedokument

Udgiver:
Konference om Usikkerhed i Kunstig Intelligens

Adgang her

Forfattere:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.

Uddybende artikel:
I den seneste tid er den stigende udbredelse af syntetiske medier, kendt som deepfakes, blevet muliggjort af de hurtige fremskridt inden for kunstig intelligens, navnlig algoritmer til dyb læring. Voksende bekymringer om den stigende tilgængelighed og troværdighed af deepfakes har ansporet forskere til at koncentrere sig om at udvikle metoder til at opdage dem. På dette område har forskere ved ISTI CNR's AIMH Lab i samarbejde med forskere fra andre organisationer gennemført forskning, undersøgelser og projekter for at bidrage til at bekæmpe denne tendens og udforske nye løsninger og trusler. Denne artikel opsummerer den seneste indsats på dette område af vores forskere og i samarbejde med andre institutioner og eksperter.

Udgivelsestype:
Konferencedokument

Udgiver:
Møde i CEUR-workshoppen

Adgang her

Forfattere:
Stanciu, Cristian og Ionescu, Bogdan og Cuccovillo, Luca og Papadopoulos, Symeon og Kordopatis-Zilos, Giorgos og Popescu, Adrian og Caldelli, Roberto

Uddybende artikel:
Syntetisk mediegenerering og -manipulation har oplevet hurtige fremskridt i de seneste år, hvilket gør det stadig lettere at skabe multimedieindhold, der ikke kan skelnes fra den menneskelige observatør. Desuden kan genereret indhold anvendes ondsindet af enkeltpersoner og organisationer til at sprede desinformation, hvilket udgør en betydelig trussel mod samfundet og demokratiet. Der er derfor et presserende behov for AI-værktøjer, der er gearet til at lette en rettidig og effektiv medieverifikationsproces. MAD'24-workshoppen har til formål at samle personer med forskellig baggrund, som er dedikeret til at bekæmpe desinformation i multimedier ved hjælp af kunstig intelligens, ved at fremme et miljø, hvor innovative idéer og erfaringer kan udforskes og udveksles. Forskningsområderne af interesse omfatter identifikation af manipuleret eller genereret indhold samt undersøgelse af udbredelsen af desinformation og dens samfundsmæssige konsekvenser. I erkendelse af betydningen af multimedier understreger workshoppen den fælles analyse af forskellige modaliteter inden for indhold, da verifikation kan forbedres ved at aggregere flere former for indhold.

Udgivelsestype:
Konferencedokument

Udgiver:
Procedurer i forbindelse med den tredje internationale ACM-workshop om multimediebaseret kunstig intelligens til bekæmpelse af desinformation

Adgang her

Forfattere:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Uddybende artikel:
At se på en videosekvens, hvor en forgrundsperson er repræsenteret, er ikke så længe siden længere. Deepfakes har revolutioneret vores måde at se på sådant indhold, og i dag er vi oftere vant til at spekulere på, om det, vi ser, er ægte eller bare en mystificering. I denne forbindelse med generel desinformation er behovet for pålidelige løsninger til at hjælpe almindelige brugere og ikke kun til at foretage en vurdering af denne form for videosekvenser stærkt på vej. I dette papir introduceres en ny tilgang, der udnytter tidsmæssige overfladerammeanomalier for at afsløre deepfake-videoer. Metoden søger efter mulige uoverensstemmelser, fremkaldt af deepfake manipulation, i de overflader, der tilhører den fangede scene og i deres udvikling langs den tidsmæssige akse. Disse funktioner bruges som input til en pipeline baseret på dybe neurale netværk til at udføre en binær vurdering af selve videoen. Eksperimentelle resultater vidner om, at en sådan metode kan opnå betydelige resultater med hensyn til detektionsnøjagtighed.

Udgivelsestype:
Konferencedokument

Udgiver:
2024 IEEE/CVF-konference om workshopper om computervision og mønstergenkendelse (CVPRW)

Adgang her

Forfattere:
Pascaline Gaborit

Uddybende artikel:
Internationale organisationer klassificerer desinformation som en af de største trusler mod demokrati og institutioner i mere end et årti. Digitale teknologier genopfinder og ændrer i høj grad den moderne livsstil, borgernes og erhvervslivets miljøer. Kunstig intelligens skaber en ny forstyrrelse i den måde, hvorpå vi får adgang til viden og skaber, spreder og forstår information. Det kan også udviske linjerne mellem reel information og manipuleret information med fremkomsten af "Fake News", krydshenvisninger til automatiske netværk og "Deep Fakes". AI-systemer øger potentialet for at skabe realistisk falsk indhold og målrettede desinformationskampagner. Desinformation går ud over simple rygter om bevidst at bedrage og fordreje evidensbaseret information gennem fabrikerede data. EU-institutionerne har også for nylig fokuseret på identifikation af desinformation i forbindelse med udenlandsk informationsmanipulation og indblanding: Udenlandsk informationsmanipulation og indblanding. Artiklen identificerer tendenser og bekymringer i forbindelse med desinformation og kunstig intelligens. Den undersøger opfattelsen af desinformation, dens virkninger og reaktioner, herunder EU's forordning om kunstig intelligens og onlineplatformes politikker. Den giver en første analytisk tilgang til emnet baseret på de aktuelle debatter blandt forskere, de første resultater af vores undersøgelser i 2024, interviews og analysen af hundredvis af falske nyheder online. Den forsøger at forstå, hvordan borgere og interessenter opfatter desinformation og identificerer mulige virkninger. Den analyserer også de aktuelle udfordringer og begrænsninger, muligheder og begrænsninger for at tackle manipulation og indblanding. Artiklen omhandler de nuværende processer og virkningerne af desinformation (2), præsentationen af de vigtigste resultater af vores onlineundersøgelse af opfattelsen af desinformation (3), EU's nuværende lovgivningsmæssige svar (4) og diskussionspunkterne (5). Vi argumenterer i denne artikel for, at der er en gigantisk ændring i den måde, vi får adgang til information på, men at reaktionerne på desinformation stadig befinder sig på et tidligt stadium. Artiklen viser også, at der i de europæiske lande er en øget bevidsthed om virkningerne af desinformation, men også en kløft mellem evnen til at identificere "falske nyheder" og desinformation og en begrænset forståelse af de processer, trusler og aktører, der er involveret i spredning af desinformation.

Udgivelsestype:
Tidsskriftpapir

Udgiver:
Journal of statskundskab og internationale relationer

Adgang her

Forfattere:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra, Axel Brando

Uddybende artikel:

I dette papir præsenterer vi en ny anvendelse af strukturelle kausale modeller (SCM'er) og abduction-action-prediction-proceduren til en tidsserieindstilling i forbindelse med et problem i den virkelige verden i lægemiddelindustrien. Vi sigter mod at anslå kontrafaktiske forhold for salgsmængden af et lægemiddel, der er blevet påvirket af, at et konkurrerende generisk lægemiddel er kommet ind på markedet. Vi anvender enkoder-dekoderbaserede arkitekturer, anvender en betinget variationel autoencoder og introducerer også brugen af betingede sparsomme autoencodere, som aldrig var blevet brugt i kontrafaktisk litteratur. Den foreslåede metode kræver tilgængelighed af historiske hændelses- og hændelsesløse tidsserier og har den fordel, at den ikke er afhængig af kontrolkovariater, der muligvis ikke er tilgængelige, samtidig med at den klart overgår det grundlæggende kontrafaktiske skøn over en prognose. Vi evaluerer vores tilgang ved hjælp af vores virksomheds salgsdatasæt fra den virkelige verden samt syntetiske og semisyntetiske datasæt, der efterligner problemsammenhængen og viser dens effektivitet. Vi har med succes anvendt denne model i vores virksomhed, hvilket giver nyttige oplysninger til forretningsplanlægning, investeringsallokering og fastsættelse af mål.

Udgivelsestype:
Værkstedsartikel

Udgiver:
NeurIPS'24-workshop om indlæring af kausal repræsentation

Adgang her

Forfattere:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis, Arianna D'Ulizia

Uddybende artikel:
Fremkomsten af digitale platforme har lettet den hurtige spredning af desinformation, som udgør betydelige sociale, politiske og økonomiske udfordringer. Videngrafer (KG'er) fremstår som effektive værktøjer til at forbedre nøjagtigheden, fortolkningsevnen og skalerbarheden af systemer til afsløring af falske nyheder og adresserer begrænsninger i traditionelle maskinlæringsbaserede tilgange, der primært er afhængige af sproglig analyse. Dette arbejde indeholder en litteraturgennemgang, der sammenfatter resultaterne fra nylige undersøgelser af anvendelsen af KG'er til afsløring af desinformation. Vi identificerer, hvordan KG'er forbedrer detektion ved at kode virkelige relationer, analysere kontekst og forbedre modelfortolkningsevnen, samtidig med at vi diskuterer aktuelle begrænsninger i skalerbarhed, datafuldstændighed og kontekstuel tilpasningsevne. De gennemgåede undersøgelser understreger behovet for fremtidig forskning med fokus på skalerbare KG-modeller i realtid og på tværs af sprog for at styrke kapaciteten til at opdage desinformation globalt. Desuden fremlægger vi foreløbige resultater af to use cases, der viser en metode til opbygning af centrale grupper, der kan tjene som nyttige værktøjer til bekæmpelse af spredning af desinformation.

Udgivelsestype:
Konferencedokument

Udgiver:
Den internationale konference om ingeniørvirksomhed og nye teknologier (ICEET) 2024

Adgang her

Forfattere:
Alessia D'Andrea, Giorgia Fusacchia og Arianna D'Ulizia

Uddybende artikel:
I dette dokument undersøges Den Europæiske Unions mangesidede reaktion på det udbredte spørgsmål om desinformation, en udfordring, der er blevet intensiveret siden annekteringen af Krim i 2014. Desinformation udgør en betydelig trussel mod de demokratiske processer og den offentlige velfærd. Den Europæiske Unions tilgang kombinerer lovgivningsmæssige foranstaltninger, strategiske partnerskaber og mediekendskabsinitiativer for at tackle dette fænomen og samtidig beskytte centrale demokratiske principper såsom ytringsfriheden. De vigtigste foranstaltninger omfatter adfærdskodeksen om desinformation og forordningen om digitale tjenester, som har til formål at holde digitale platforme ansvarlige og sikre gennemsigtighed. Desuden fremhæver initiativer såsom East StratCom-taskforcen og det hurtige varslingssystem Den Europæiske Unions bestræbelser på at bekæmpe desinformation som et redskab til hybrid krigsførelse. Dette dokument understreger også den afgørende rolle, som borgerne spiller, og som Den Europæiske Union søger at styrke gennem mediekendskabsprogrammer, der sætter dem i stand til at genkende og modstå manipulerende indhold. Ved at undersøge samspillet mellem statslige tiltag, inddragelse af den private sektor og inddragelse af borgerne giver denne undersøgelse en omfattende analyse af Den Europæiske Unions strategi for bekæmpelse af desinformation og vurderer de udfordringer og fremtidige retningslinjer, der er nødvendige for at opretholde den demokratiske modstandsdygtighed i et digitalt landskab i udvikling.

Udgivelsestype:
Videnskabelig artikel

Udgiver:
Informationspolitet

Adgang her

Forfattere:
Alessia D'Andrea, Giorgia Fusacchia og Arianna D'Ulizia

Uddybende artikel:

Formål
Ved hjælp af en tværfaglig tilgang har denne undersøgelse til formål at spore desinformationskampagnernes vej fra deres opdagelse ved hjælp af sproglige tegn på troværdighed til fremme gennem formidlingsmekanismerne og endelig at vurdere deres indvirkning på den sociopolitiske kontekst.

Udformning/metode/fremgangsmåde
Denne undersøgelse giver et indgående overblik over fire grundlæggende aspekter af desinformation: de sproglige karakteristika, der kendetegner indhold, der er udformet til at vildlede og manipulere den offentlige mening, de mediemekanismer, der letter udbredelsen heraf ved at udnytte publikums kognitive processer, de trusler, som den stigende anvendelse af generativ kunstig intelligens til at sprede desinformation udgør, og de bredere konsekvenser, som denne desinformationsdynamik har for den offentlige mening og dermed for de politiske beslutningsprocesser.

Resultater
Som følge heraf giver dokumentet en tværfaglig og holistisk undersøgelse af fænomenet med henvisning til dets pluraliserede elementer for at fremhæve betydningen af platformsansvar, mediekendskabskampagner blandt borgerne og interaktivt samarbejde mellem den private og den offentlige sektor som foranstaltninger til at øge modstandsdygtigheden over for truslen om desinformation.

Originalitet/værdi
Undersøgelsen fremhæver behovet for at øge platformens ansvarlighed, fremme mediekendskab blandt enkeltpersoner og udvikle samarbejdet mellem den offentlige og den private sektor. Målene for denne integrerede strategi er at styrke modstandsdygtigheden over for desinformation og sikre EU's tilpasningsevne over for skiftende digitale trusler. I sidste ende slår dokumentet til lyd for en retfærdig og åben strategi, der beskytter ytringsfriheden og styrker de demokratiske institutioner på et tidspunkt, hvor digital desinformation er stigende.

Udgivelsestype:
Videnskabelig artikel

Udgiver:
Tidsskrift for information, kommunikation og etik i samfundet (2025)

Adgang her

Forfattere:
Eddie Conti, Alejandro Astruc, Álvaro Parafita, Axel Brando

Uddybende artikel:

Forståelse af, hvordan information udbredes gennem Transformer-modeller, er en central udfordring for fortolkningsevnen. I dette arbejde studerer vi virkningerne af minimale tokenforstyrrelser på indlejringsrummet. I vores eksperimenter analyserer vi hyppigheden af hvilke tokens giver minimale skift og fremhæver, at sjældne tokens normalt fører til større skift. Desuden studerer vi, hvordan forstyrrelser formerer sig på tværs af lag, hvilket viser, at inputinformation i stigende grad blandes i dybere lag. Vores resultater validerer den almindelige antagelse, at de første lag af en model kan bruges som fuldmagter til modelforklaringer. Samlet set introducerer dette arbejde kombinationen af tokenforstyrrelser og skift på indlejringsområdet som et kraftfuldt værktøj til modelfortolkning.

Udgivelsestype:
Værkstedsartikel

Udgiver:
IJCAI 2025-workshop om forklarende kunstig intelligens

Adgang her

Forfattere:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Uddybende artikel:

Desinformation er altid mere induceret ved at ty til ændret eller fuldt syntetisk genereret realistisk indhold, der almindeligvis er kendt som deepfakes. Dette indebærer, at der er behov for pålidelige instrumenter, der kan afsløre sådant falsk indhold for at undgå polarisering af personers tænkning. Forskellige teknikker er blevet præsenteret, hvis fællesnævner er at søge efter nogle uoverensstemmelser fremkaldt af den falske generationsproces og dokumenteret ved at se på specifikke egenskaber. Det ser ud til, at den mulige kombination af forskellige særpræg kan give mere effektive resultater. I denne opfattelse og efter vores tidligere undersøgelse om dette emne foreslår vi at undersøge en ny funktion, som grundlæggende tager hensyn til de indbyggede relationer, der eksisterer inden for hele erhvervelsesscenen på tidspunktet for billedoptagelse (video) og derefter repræsenteret af billedpixelværdierne. Ideen bag er, at deepfake-genereringsprocessen kan bryde sådanne iboende afhængigheder mellem belysning (intensitet og retning), objektoverflader (position og refleksion) og erhvervelsesstøj, hvilket vidner om en mulig manipulation. Ifølge dette er en funktionsdeskriptor, der hedder Local Surface Descriptor, blevet konstrueret og brugt til at træne CNN-baserede modeller til deepfake-detektion. Eksperimentelle resultater udført i forskellige operative sammenhænge viser en signifikant detektionsnøjagtighed på op til 90%.

Udgivelsestype:
Konferencedokument

Udgiver:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, De Forenede Arabiske Emirater, 2024

Adgang her

Forfattere:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Uddybende artikel:

Den faktiske kapacitet til at AI-generere realistiske fuldt syntetiske billeder forbedres dag for dag, og dette gælder især for billeder, der repræsenterer menneskelige ansigter, der ser ud til at kunne skelnes fra rigtige mennesker. Dette udgør det afgørende behov for at udvikle instrumenter, der er i stand til at skelne mellem sande og ikke-eksisterende mennesker ved at opdage nogle eventuelle uoverensstemmelser, der er indlejret i billederne under generationsprocessen. Den væsentligste forskel mellem et uberørt billede og et deepfake-genereret billede er, at der i det andet tilfælde ikke har været en effektiv kameraerhvervelse. så alle de forskellige sammenhænge mellem de elementer, der tilhører scenen (lys, refleksion, objekt respektive positioner i 3D-rummet) er ikke taget af den virkelige verden i det præcise tidspunkt øjeblik, men blot kunstigt gengivet. Ifølge en sådan overvejelse introducerer vi i dette arbejde lokale kameraoverfladerammer som et muligt middel til at repræsentere disse specifikke miljømæssige egenskaber for at fremhæve forskelle. Den gennemførte eksperimentelle analyse har vist, at denne funktion kan give en meget høj grad af nøjagtighed og en betydelig grad af generalisering.

Udgivelsestype:
Konferencedokument

Udgiver:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, De Forenede Arabiske Emirater, 2024

Adgang her

Forfattere:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Uddybende artikel:

Ekstraordinære uvirkelige billeder kan realiseres med pow-erful AI-teknikker. Forskellige værktøjer til rådighed for alle er i stand til at genskabe indhold af høj kvalitet, især generere hele fuldt syntetiske billeder. Blandt de eksisterende arkitekturer kan diffusionsbaserede modeller nemt producere enhver form for billeder, herunder menneskelige ansigtsbilleder, ved at give en prompt som en tekst. Sådanne falske indhold bruges ofte til at sprede misinformation, og dette giver anledning til bekymring om folks sikkerhed. På nuværende tidspunkt bliver det svært at udvikle pålidelige instrumenter til at skelne mellem reelle og genererede (selv ikke-eksisterende) mennesker. Desuden udgør den store mængde diffusionsbaserede implementeringer problemet for sådanne detektorer at generalisere på nye generative teknikker. For at løse disse problemer foreslår vi at undersøge kapaciteten af et karakteristisk træk, baseret på billedoptagelsesmiljøet, for at individuere diffusionsbaserede ansigtsbilleder fra de uberørte. Faktisk bør genererede billeder ikke indeholde de egenskaber, der er korrekte for erhvervelsesfasen, der udføres via et rigtigt kamera. Sådanne uoverensstemmelser kan fremhæves ved hjælp af nyligt indførte lokale overfladerammer. Denne funktion tager hensyn til objekter og overflader involveret i scenen, som alle påvirker kamera erhvervelse proces, sammen med yderligere iboende oplysninger bundet til enheden, samt belysning og refleksioner, der påvirker hele scenariet. Papiret udforsker evnen af denne funktion til at generalisere mod forskellige datasæt og nye generative metoder ukendt under træning. Eksperimentelle resultater fremhæver, at en sådan funktion stadig giver betydelige niveauer af detektionsnøjagtighed også i disse tilfælde.

Udgivelsestype:
Konferencedokument

Udgiver:
2024 IEEE International Conference on Image Processing Challenges and Workshops (ICIPCW), Abu Dhabi, De Forenede Arabiske Emirater, 2024

Adgang her

Forfattere:
Álvaro Parafita, Tomas Garriga, Axel Brando, Francisco J. Cazorla

Uddybende artikel:

Blandt forklarlighedsteknikker skiller SHAP sig ud som en af de mest populære, men overser ofte problemets årsagsstruktur. Som svar anvender do-SHAP interventionelle forespørgsler, men dens afhængighed af estimands hindrer dens praktiske anvendelse. For at løse dette problem foreslår vi brugen af estimand-agnostiske tilgange, som giver mulighed for estimering af enhver identificerbar forespørgsel fra en enkelt model, hvilket gør do-SHAP gennemførlig på komplekse grafer. Vi udvikler også en ny algoritme for at fremskynde dens beregning betydeligt til en ubetydelig pris samt en metode til at forklare utilgængelige datagenererende processer. Vi demonstrerer vores tilgangs estimering og beregningsmæssige ydeevne og validerer den på to datasæt fra den virkelige verden og fremhæver dens potentiale til at opnå pålidelige forklaringer.

Udgivelsestype:
Konferencedokument

Udgiver:
Den 39. årlige konference om neurale informationsbehandlingssystemer (NeurIPS 2025)

Adgang her

Forfattere:
Alamgir Munir Qazi, John Philip McCrae og Jamal Nasir

Uddybende artikel:

Udbredelsen af misinformation kræver robuste, men beregningsmæssigt effektive faktaverifikationssystemer. Mens de nuværende state-of-the-art tilgange udnytter store sprogmodeller (LLM'er) til at generere forklarende rationaler, står disse metoder over for betydelige beregningsmæssige barrierer og hallucinationsrisici i real-world implementeringer. Vi præsenterer DeReC (Dense Retrieval Classification), en letvægtsramme, der viser, hvordan generelle tekstindlejringer effektivt kan erstatte autoregressive LLM-baserede tilgange i virkeligheden verifikationsopgaver. Ved at kombinere tæt hentning med specialiseret klassificering opnår vores system bedre nøjagtighed, samtidig med at det er betydeligt mere effektivt. DeReC overgår forklaringsgenererende LLM'er i effektivitet, hvilket reducerer runtime med 95% på RAWFC (23 minutter 36 sekunder sammenlignet med 454 minutter 12 sekunder) og med 92% på LIAR-RAW (134 minutter 14 sekunder sammenlignet med 1692 minutter 23 sekunder), hvilket viser dens effektivitet på tværs af forskellige datasætstørrelser. På RAWFC-datasættet opnår DeReC en F1-score på 65,58%, der overgår den nyeste metode L-Defense (61.20%). Vores resultater viser, at omhyggeligt konstruerede hentningsbaserede systemer kan matche eller overstige LLM-ydeevnen i specialiserede opgaver, samtidig med at de er betydeligt mere praktiske til implementering i den virkelige verden.

Udgivelsestype:
Konferencedokument

Udgiver:
5. konference om sprog, data og viden

Adgang her

Forfattere:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli og Stefano Berretti

Uddybende artikel:

For MediaEval 2025 SynthIm Challenge Task A (Synthetic Image Detection) identificerede vi et kritisk fordelingsskift mellem de leverede trænings- og testdata, hvilket gjorde førstnævnte til en dårlig repræsentant for måldomænet. Vores tilgang tager direkte fat på denne udfordring ved at indarbejde det mere stilistisk konsistente valideringssæt i vores træningsdata og udnytte en frossen CLIP ViT-L/14 som en robust funktionsudsugning. Vores vigtigste indsigt er, at under sådanne domæneskiftforhold overgår de generaliserbare repræsentationer fra en stor forududdannet model betydeligt en traditionel CNN finjusteret på det mismatchede datasæt, hvilket viser sig at være en mere effektiv og pålidelig strategi.

Udgivelsestype:
Konferencedokument

Udgiver:
MediaEval"25: Multimedieevalueringsworkshop, 25.-26. oktober 2025, Dublin, Irland og online

Adgang efter anmodning

Forfattere:
Qiushi Li, Roberto Caldelli og Stefano Berretti

Uddybende artikel:

Den hurtige udvikling af billedgenereringsmodeller som Stable Diffusion giver anledning til bekymring over potentielt misbrug, hvilket gør robuste vandmærkningsteknikker afgørende for autentificering og tilskrivning af syntetisk indhold, navnlig i bekæmpelsen af deepfakes. Samtidig er det dog stadig en udfordring at sikre billedgenerering i høj kvalitet og nøjagtig udtrækning af vandmærker. Gennem en analyse af eksisterende metoder identificerer vi en kritisk begrænsning:
deres tabsfunktioner anvender ofte en enkelt reference (enten inputbilledet eller det rene genererede billede) til optimering af billedtroskab, hvilket fører til suboptimal ydeevne. I dette papir gennemfører vi en tilbundsgående undersøgelse af begrebet tab af billedkvalitet i diffusionsbaseret vandmærkning. Ved at analysere de forskellige virkninger af at bruge inputbilledet i forhold til det rene genererede billede som referencer under optimering, afslører vi, at en fælles betragtning af begge referencer forbedrer robustheden og den visuelle kvalitet betydeligt. Omfattende eksperimenter viser, at vores dual-reference tilgang opnår overlegen ydeevne i både vandmærke udvinding nøjagtighed og generation troskab i forhold til enkelt-reference baselines. Vi går ind for dette paradigme for at fremme pålidelig vandmærkning i generative modeller.

Udgivelsestype:
Konferencedokument

Udgiver:
DFF "25: Første møde i Deepfake Forensics Workshop: Detektion, tilskrivning, anerkendelse og kontradiktoriske udfordringer i en tid med AI-genererede medier

Adgang her

Forfattere:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte, Marc Serra-Vidal

Uddybende artikel:

Kunstig intelligens (AI) gennemsyrer nu kritiske infrastrukturer og beslutningssystemer, hvor fiaskoer forårsager social, økonomisk og demokratisk skade. Dette positionspapir udfordrer den rodfæstede tro på, at regulering og innovation er modsætninger. Som det fremgår af analogier fra luftfart, lægemidler og velfærdssystemer og nylige tilfælde af syntetisk misinformation, bias og uansvarlig beslutningstagning, har manglen på veludformet regulering allerede skabt umådelig skade. Regulering er, når den er gennemtænkt og tilpasningsdygtig, ikke en bremse for innovation — den er dens grundlag. I dette holdningsdokument undersøges EU's retsakt om kunstig intelligens som en model for risikobaseret, ansvarsdrevet regulering, der adresserer Collingridge-dilemmaet: handle tidligt nok til at forhindre skade, men alligevel fleksibelt nok til at opretholde innovation. Dens tilpasningsmekanismer — reguleringsmæssige sandkasser, støtte til små og mellemstore virksomheder (SMV'er), afprøvning under faktiske forhold og konsekvensanalyse vedrørende grundlæggende rettigheder — viser, hvordan regulering kan fremskynde de teknologiske fremskridt på en ansvarlig måde i stedet for at forsinke dem. Holdningsdokumentet opsummerer, hvordan forvaltningsværktøjer omdanner opfattede byrder til håndgribelige fordele: retssikkerhed, forbrugertillid og etisk konkurrenceevne. I sidste ende omformulerer papiret fremskridt: Innovation og regulering går fremad i fællesskab. Ved at integrere gennemsigtighed, konsekvensanalyser, ansvarlighed og AI-færdigheder i design og udbredelse definerer EU-rammen, hvad ansvarlig innovation virkelig betyder — teknologiske ambitioner disciplineret af demokratiske værdier og grundlæggende rettigheder.

Udgivelsestype:
Konferencedokument

Udgiver:
Den 39. årlige konference om neurale informationsbehandlingssystemer (NeurIPS 2025)

Adgang her

Forfatter: Pascaline Gaborit

Uddybende artikel:

I en tid med global usikkerhed er tillid blevet en kritisk faktor, der former forholdet mellem nationer, institutioner og enkeltpersoner. Denne bog, Trust, New Technologies and Geopolitics in an Uncertain World, giver en rettidig og dybdegående udforskning af, hvordan tillid testes og omdannes i lyset af hurtigt skiftende geopolitiske landskaber. Fra de demokratiske systemers skrøbelighed til de udfordringer, der er forbundet med nye teknologier, kunstig intelligens, desinformation og klimaændringer, dykker denne bog ned i de mest presserende spørgsmål i vores tid. Ved at undersøge krydsfeltet mellem tillid og centrale områder såsom demokratier, handelskrige og nye teknologier giver dette arbejde værdifuld indsigt for politiske beslutningstagere, akademikere og alle, der søger at forstå kompleksiteten i dagens verden. Uanset om du beskæftiger dig med cybersikkerhed, desinformation, virkningen af hybride trusler eller tillidens rolle i internationalt diplomati, giver denne bog en omfattende, men tilgængelig ramme for at navigere i disse udfordringer. Det kaster lys over, hvordan forståelse af tillid er nøglen til at tackle de geopolitiske usikkerheder, der definerer vores alder.

Udgivelsestype:
Bog

Udgiver:
Peter Lang udgiver

Adgang her

Forfatter:

Hoteller i nærheden af Álvaro Parafita, Axel Brando

Uddybende artikel:

Det er afgørende at vurdere betydningen af individuelle funktioner i maskinlæring for at forstå modellens beslutningsproces. Selv om der findes mange metoder, understreger manglen på en endelig grund til sammenligning behovet for alternative, velbegrundede foranstaltninger. Dette papir introducerer en ny post-hoc lokal funktionsbetydningsmetode kaldet kontrafaktisk betydningsfordeling (CID). Vi genererer to sæt positive og negative kontrafaktiske scenarier, modellerer deres fordelinger ved hjælp af Kernel Density Estimation og rangordner funktioner baseret på et fordelingsmæssigt ulighedsmål. Dette mål, der er baseret på en streng matematisk ramme, opfylder nøgleegenskaber, der kræves for at fungere som en gyldig metrik. Vi viser effektiviteten af vores metode ved at sammenligne med veletablerede lokale funktionsforklarere. Vores metode giver ikke kun komplementære perspektiver til eksisterende tilgange, men forbedrer også ydeevnen på trofasthedsmålinger (både for fuldstændighed og tilstrækkelighed), hvilket resulterer i mere trofaste forklaringer af systemet. Disse resultater fremhæver dens potentiale som et værdifuldt værktøj til modelanalyse.

Udgivelsestype:
Konferencedokument

Udgiver:
Northern Lights Deep Learning konference 2026

Adgang her