Naukowe Publikacje

Zapoznaj się ze wszystkimi publikacjami naukowymi opracowanymi przez partnerów AI4Debunk, prezentującymi najnowsze odkrycia naukowe projektu.

Autorzy:
Axel Brando, Lucas Berry, David Mege

Streszczenie:
Generacyjne modele dyfuzyjne, wyróżniające się dużą liczbą parametrów (powyżej 100 milionów) i działaniem w wysokowymiarowych przestrzeniach obrazu, stanowią poważne wyzwanie dla tradycyjnych metod szacowania niepewności ze względu na wymagania obliczeniowe. W tej pracy wprowadzamy innowacyjną strukturę, Diffusion Ensembles for Capturing Uncertainty (DECU), zaprojektowaną do szacowania niepewności epistemicznej dla modeli dyfuzji. Ramy DECU wprowadzają nowatorską metodę, która skutecznie szkoli zespoły modeli dyfuzji warunkowej poprzez włączenie statycznego zestawu wstępnie wyszkolonych parametrów, drastycznie zmniejszając obciążenie obliczeniowe i liczbę parametrów wymagających szkolenia. Ponadto DECU wykorzystuje estymatory odległości parowej (PaiDE) do dokładnego pomiaru niepewności epistemicznej poprzez ocenę wzajemnej informacji między wynikami modelu a wagą w przestrzeniach wysokowymiarowych. Skuteczność tych ram jest wykazywana poprzez eksperymenty na zbiorze danych ImageNet, podkreślając jego zdolność do uchwycenia niepewności epistemicznej, szczególnie w klasach obrazów z niedoborem próbek.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Konferencja "Niepewność w sztucznej inteligencji"

Dostęp tutaj

Autorzy:
Coccomini D.A., Caldelli R., Gennaro C., Fiameni G., Amato G., Falchi F.

Streszczenie:
W ostatnim czasie rosnące rozprzestrzenianie się mediów syntetycznych, znanych jako deepfake, stało się możliwe dzięki szybkiemu postępowi w technologiach sztucznej inteligencji, zwłaszcza algorytmach głębokiego uczenia się. Rosnące obawy o rosnącą dostępność i wiarygodność deepfake'ów skłoniły naukowców do skoncentrowania się na opracowywaniu metod ich wykrywania. W tej dziedzinie naukowcy z AIMH Lab ISTI CNR, we współpracy z naukowcami z innych organizacji, przeprowadzili badania, dochodzenia i projekty, aby przyczynić się do zwalczania tego trendu, badając nowe rozwiązania i zagrożenia. Ten artykuł podsumowuje najnowsze wysiłki podjęte w tej dziedzinie przez naszych naukowców i we współpracy z innymi instytucjami i ekspertami.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Postępowania warsztatowe CEUR

Dostęp tutaj

Autorzy:
Stanciu, Cristian i Ionescu, Bogdan i Cuccovillo, Luca i Papadopoulos, Symeon i Kordopatis-Zilos, Giorgos i Popescu, Adrian i Caldelli, Roberto

Streszczenie:
Syntetyczne generowanie i manipulacja mediami w ostatnich latach przyniosły szybkie postępy, co sprawia, że coraz łatwiej jest tworzyć treści multimedialne, które są nie do odróżnienia dla ludzkiego obserwatora. Ponadto generowane treści mogą być złośliwie wykorzystywane przez jednostki i organizacje w celu rozpowszechniania dezinformacji, co stanowi poważne zagrożenie dla społeczeństwa i demokracji. W związku z tym istnieje pilna potrzeba narzędzi sztucznej inteligencji ukierunkowanych na ułatwienie terminowego i owocnego procesu weryfikacji mediów. Warsztaty MAD’24 mają na celu zgromadzenie osób z różnych środowisk, które zajmują się zwalczaniem dezinformacji w mediach za pomocą sztucznej inteligencji, poprzez stworzenie środowiska do odkrywania innowacyjnych pomysłów i dzielenia się doświadczeniami. Obszary zainteresowania badawcze obejmują identyfikację zmanipulowanych lub wygenerowanych treści, a także badanie rozpowszechniania dezinformacji i jej skutków społecznych. Uznając znaczenie multimediów, warsztaty podkreślają wspólną analizę różnych modalności w obrębie treści, ponieważ weryfikację można poprawić poprzez agregację wielu form treści.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
III Międzynarodowe Warsztaty ACM na temat Multimedialnej Sztucznej Inteligencji przeciwko Dezinformacji

Dostęp tutaj

Autorzy:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Streszczenie:
Patrzenie na sekwencję wideo, w której reprezentowana jest osoba na pierwszym planie, nie jest już tak dawno temu. Deepfakes zrewolucjonizowały nasz sposób oglądania takich treści, a obecnie częściej przyzwyczajamy się do zastanawiania się, czy to, co widzimy, jest prawdziwe, czy jest tylko mistyfikacją. W tym kontekście uogólnionej dezinformacji silnie nadchodzi potrzeba wiarygodnych rozwiązań, które pomogą zwykłym użytkownikom, a nie tylko, dokonać oceny tego rodzaju sekwencji wideo. W niniejszym artykule wprowadzono nowatorskie podejście, które wykorzystuje anomalie czasowych ramek powierzchniowych w celu ujawnienia filmów typu deepfake. Metoda poszukuje możliwych rozbieżności, wywołanych manipulacją deepfake, w powierzchniach należących do uchwyconej sceny oraz w ich ewolucji wzdłuż osi czasowej. Funkcje te są wykorzystywane jako wejście rurociągu opartego na głębokich sieciach neuronowych do przeprowadzenia binarnej oceny samego wideo. Wyniki eksperymentów świadczą o tym, że taka metodologia może osiągnąć znaczącą wydajność pod względem dokładności wykrywania.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
2024 Konferencja IEEE/CVF na temat komputerowej wizji i warsztatów rozpoznawania wzorców (CVPRW)

Dostęp tutaj

Autorzy:
Pascaline Gaborit

Streszczenie:
Organizacje międzynarodowe klasyfikują dezinformację jako jedno z głównych zagrożeń dla demokracji i instytucji od ponad dekady. Technologie cyfrowe na nowo odkrywają i głęboko zmieniają współczesny styl życia, otoczenie obywateli i środowiska biznesowe. Sztuczna inteligencja wprowadza nowe zakłócenia w sposobie, w jaki uzyskujemy dostęp do wiedzy oraz tworzymy, rozpowszechniamy i rozumiemy informacje. Może również zacierać granice między prawdziwymi informacjami a zmanipulowanymi informacjami wraz z pojawieniem się „fałszywych wiadomości”, odniesień do sieci automatycznych i „głębokich podróbek”. Systemy sztucznej inteligencji zwiększają potencjał tworzenia realistycznych fałszywych treści i ukierunkowanych kampanii dezinformacyjnych. Dezinformacja wykracza poza zwykłe plotki, aby celowo oszukiwać i zniekształcać informacje oparte na dowodach za pomocą sfabrykowanych danych. Instytucje europejskie skoncentrowały się ostatnio również na identyfikacji dezinformacji związanej z zagranicznymi manipulacjami informacjami i ingerencjami w informacje: Zagraniczne manipulacje informacjami i ingerencje. W artykule wskazano tendencje i obawy związane z dezinformacją i sztuczną inteligencją. Przeanalizowano w nim postrzeganie dezinformacji, jej skutki i reakcje, w tym unijny akt w sprawie sztucznej inteligencji i politykę platform internetowych. Przedstawiono w nim pierwsze analityczne podejście do tego tematu oparte na bieżących debatach naukowców, pierwszych ustaleniach z ankiet przeprowadzonych przez Trybunał w 2024 r., wywiadach i analizie setek fałszywych informacji w internecie. Próbuje zrozumieć, w jaki sposób obywatele i zainteresowane strony postrzegają dezinformację i identyfikuje możliwe skutki. Analizuje również obecne wyzwania i ograniczenia, możliwości i ograniczenia w walce z manipulacją i ingerencją. W artykule omówiono obecne procesy i skutki dezinformacji (2), prezentację głównych ustaleń naszego badania internetowego na temat postrzegania dezinformacji (3), obecne reakcje regulacyjne UE (4) oraz punkty dyskusyjne (5). W tym artykule argumentujemy, że nastąpiła gigantyczna zmiana w sposobie, w jaki uzyskujemy dostęp do informacji, ale reakcje na dezinformację są nadal na wczesnym etapie. W artykule wykazano również, że w krajach europejskich istnieje większa świadomość skutków dezinformacji, ale także luka między zdolnością do identyfikowania fałszywych informacji i dezinformacji a ograniczonym zrozumieniem procesów, zagrożeń i podmiotów zaangażowanych w rozpowszechnianie dezinformacji.

Rodzaj publikacji:
Artykuł w czasopiśmie

Wydawca:
Czasopismo Nauk Politycznych i Stosunków Międzynarodowych

Dostęp tutaj

Autorzy:
Tomas Garriga, Gerard Sanz, Eduard Serrahima de Cambra, Axel Brando

Streszczenie:

W tym artykule przedstawiamy nowatorskie zastosowanie strukturalnych modeli przyczynowych (SCM) i procedury uprowadzenia-działania-przewidywania do szeregów czasowych w kontekście rzeczywistego problemu w przemyśle farmaceutycznym. Naszym celem jest oszacowanie scenariuszy alternatywnych dla wielkości sprzedaży leku, na który miało wpływ wejście na rynek konkurencyjnego leku generycznego. Stosujemy architektury oparte na koderze-dekoderze, stosując warunkowy wariacyjny autoenkoder, a także wprowadzając zastosowanie warunkowych rzadkich autoenkoderów, które nigdy nie były używane w literaturze kontrfaktycznej. Proponowana metodyka wymaga dostępności historycznych zdarzeń i szeregów czasowych bez zdarzeń i ma tę zaletę, że nie polega na zmiennych kontrolnych, które mogą być niedostępne, a jednocześnie wyraźnie przewyższa podstawowe szacunki alternatywne prognozy. Oceniamy nasze podejście, korzystając ze zbioru danych dotyczących sprzedaży w świecie rzeczywistym, a także syntetycznych i półsyntetycznych zbiorów danych, które naśladują kontekst problemu, wykazując jego skuteczność. Z powodzeniem zastosowaliśmy ten model w naszej firmie, dostarczając przydatnych informacji do planowania biznesowego, alokacji inwestycji i wyznaczania celów.

Rodzaj publikacji:
Artykuł warsztatowy

Wydawca:
Warsztaty NeurIPS’24 na temat uczenia się reprezentacji przyczynowej

Dostęp tutaj

Autorzy:
Anastasios Manos, Despina Elisabeth Filippidou, Nikolaos Pavlidis, Georgios Karanasios, Georgios Vachtanidis, Arianna D’Ulizia

Streszczenie:
Rozwój platform cyfrowych ułatwił szybkie rozprzestrzenianie się dezinformacji, która stwarza poważne wyzwania społeczne, polityczne i gospodarcze. Wykresy wiedzy (KG) stają się skutecznymi narzędziami zwiększającymi dokładność, interpretowalność i skalowalność systemów wykrywania fałszywych informacji, eliminującymi ograniczenia tradycyjnych podejść opartych na uczeniu maszynowym, które opierają się przede wszystkim na analizie językowej. Niniejsza praca zawiera przegląd literatury, który stanowi syntezę wyników ostatnich badań dotyczących stosowania wytycznych w wykrywaniu dezinformacji. Identyfikujemy, w jaki sposób KG poprawiają wykrywanie poprzez kodowanie rzeczywistych relacji, analizowanie kontekstu i zwiększanie interpretowalności modelu, a także omawiamy obecne ograniczenia skalowalności, kompletności danych i możliwości adaptacji kontekstowej. Zrecenzowane badania podkreślają potrzebę przyszłych badań koncentrujących się na skalowalnych, realizowanych w czasie rzeczywistym i międzyjęzykowych modelach KG, aby zwiększyć możliwości wykrywania dezinformacji na całym świecie. Ponadto przedstawiamy wstępne wyniki dwóch przypadków użycia, prezentując metodykę konstruowania grup kluczowych, które mogą służyć jako przydatne narzędzia do walki z rozprzestrzenianiem się dezinformacji.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Międzynarodowa konferencja na temat inżynierii i powstających technologii (ICEET) w 2024 r.

Dostęp tutaj

Autorzy:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia

Streszczenie:
W niniejszym dokumencie przeanalizowano wieloaspektową reakcję Unii Europejskiej na wszechobecną kwestię dezinformacji, wyzwanie, które nasiliło się od czasu aneksji Krymu w 2014 r. Dezinformacja stanowi poważne zagrożenie dla procesów demokratycznych i dobrobytu publicznego. Podejście Unii Europejskiej łączy środki regulacyjne, partnerstwa strategiczne i inicjatywy w zakresie umiejętności korzystania z mediów, aby zaradzić temu zjawisku, a jednocześnie chronić podstawowe zasady demokratyczne, takie jak wolność wypowiedzi. Kluczowe środki obejmują kodeks postępowania w zakresie zwalczania dezinformacji oraz akt o usługach cyfrowych, których celem jest pociągnięcie platform cyfrowych do odpowiedzialności i zapewnienie przejrzystości. Ponadto inicjatywy takie jak grupa zadaniowa East StratCom i system wczesnego ostrzegania podkreślają wysiłki Unii Europejskiej na rzecz przeciwdziałania dezinformacji jako narzędziu wojny hybrydowej. Dokument ten podkreśla również kluczową rolę obywateli, których Unia Europejska stara się wzmocnić poprzez programy umiejętności korzystania z mediów, umożliwiając im rozpoznawanie treści manipulacyjnych i stawianie im oporu. Analizując interakcje między działaniami rządowymi, zaangażowaniem sektora prywatnego i zaangażowaniem obywateli, w niniejszym badaniu przedstawiono kompleksową analizę strategii Unii Europejskiej przeciwko dezinformacji oraz oceniono wyzwania i przyszłe kierunki niezbędne do utrzymania odporności demokratycznej w zmieniającym się krajobrazie cyfrowym.

Rodzaj publikacji:
Artykuł naukowy

Wydawca:
Polityka informacyjna

Dostęp tutaj

Autorzy:
Alessia D’Andrea, Giorgia Fusacchia, Arianna D’Ulizia

Streszczenie:

Cel
Wykorzystując podejście multidyscyplinarne, niniejsze badanie ma na celu prześledzenie ścieżki kampanii dezinformacyjnych od ich wykrycia za pomocą językowych sygnałów wiarygodności po wspieranie za pomocą mechanizmów rozpowszechniania, a także ocenę ich wpływu na kontekst społeczno-polityczny.

Projekt/metodologia/podejście
Niniejsze badanie zawiera szczegółowy przegląd czterech podstawowych aspektów dezinformacji: cechy językowe odróżniające treści mające na celu oszukiwanie opinii publicznej i manipulowanie nią, mechanizmy medialne ułatwiające jej rozpowszechnianie poprzez wykorzystywanie procesów poznawczych odbiorców, zagrożenia związane z coraz częstszym wykorzystywaniem generatywnej sztucznej inteligencji do szerzenia dezinformacji oraz szersze konsekwencje, jakie ta dynamika dezinformacji ma dla opinii publicznej, a w konsekwencji dla politycznych procesów decyzyjnych.

Ustalenia
W rezultacie w artykule przedstawiono interdyscyplinarną i holistyczną analizę tego zjawiska, odnosząc się do jego pluralistycznych elementów w celu podkreślenia znaczenia odpowiedzialności platformy, kampanii na rzecz umiejętności korzystania z mediów wśród obywateli oraz interaktywnej współpracy między sektorem prywatnym i publicznym jako środków zwiększających odporność na zagrożenie dezinformacją.

Oryginalność/wartość
W badaniu podkreślono potrzebę zwiększenia rozliczalności platform, promowania umiejętności korzystania z mediów wśród osób fizycznych oraz rozwijania współpracy między sektorem publicznym i prywatnym. Wzmocnienie odporności na dezinformację i zapewnienie zdolności adaptacyjnych UE w obliczu zmieniających się zagrożeń cyfrowych to cele tej zintegrowanej strategii. Ostatecznie w dokumencie opowiedziano się za sprawiedliwą i otwartą strategią, która chroni wolność wypowiedzi i wzmacnia instytucje demokratyczne w czasie, gdy cyfrowa dezinformacja rośnie.

Rodzaj publikacji:
Artykuł naukowy

Wydawca:
Dziennik Informacji, Komunikacji i Etyki w Społeczeństwie (2025)

Dostęp tutaj

Autorzy:
Eddie Conti, Alejandro Astruc, Álvaro Parafita, Axel Brando

Streszczenie:

Zrozumienie, w jaki sposób informacja rozprzestrzenia się poprzez modele transformatorów, jest kluczowym wyzwaniem dla interpretowalności. W tej pracy badamy wpływ minimalnych perturbacji żetonów na przestrzeń osadzania. W naszych eksperymentach analizujemy częstotliwość, z jaką żetony ulegają minimalnym zmianom, podkreślając, że rzadkie żetony zwykle prowadzą do większych zmian. Ponadto badamy, w jaki sposób perturbacje rozprzestrzeniają się między warstwami, pokazując, że informacje wejściowe są coraz bardziej mieszane w głębszych warstwach. Nasze ustalenia potwierdzają powszechne założenie, że pierwsze warstwy modelu mogą być wykorzystywane jako wskaźniki zastępcze dla wyjaśnień modelu. Ogólnie rzecz biorąc, praca ta wprowadza kombinację perturbacji symbolicznych i zmian w przestrzeni osadzania jako potężnego narzędzia do interpretacji modelu.

Rodzaj publikacji:
Artykuł warsztatowy

Wydawca:
Warsztaty IJCAI 2025 na temat wyjaśnialnej sztucznej inteligencji

Dostęp tutaj

Autorzy:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Streszczenie:

Dezinformacja jest zawsze bardziej indukowana przez uciekanie się do zmienionych lub pełnych syntetycznie generowanych realistycznych treści, powszechnie znanych jako deepfake. Wiąże się to z potrzebą wiarygodnych instrumentów, które będą w stanie ujawnić takie fałszywe treści, aby uniknąć polaryzacji myślenia osób. Przedstawiono różnorodne techniki, których wspólnym mianownikiem jest poszukiwanie pewnych niespójności wywołanych przez proces fałszywego generowania i potwierdzonych przez spojrzenie na konkretne cechy. Wydaje się, że możliwe połączenie różnych charakterystycznych cech mogłoby zapewnić bardziej skuteczne osiągnięcia. W tym widoku i po naszym poprzednim badaniu w tej sprawie proponujemy zbadanie nowej funkcji, która zasadniczo uwzględnia wbudowane relacje istniejące w całej scenie akwizycji w momencie przechwytywania obrazu (wideo), a następnie reprezentowane przez wartości pikseli obrazu. Ideą stojącą za tym jest to, że proces generowania deepfake może przełamać takie wewnętrzne zależności między oświetleniem (intensywność i kierunek), powierzchniami obiektów (pozycja i odbicie) i hałasem akwizycji, co świadczy o możliwej manipulacji. Zgodnie z tym, deskryptor funkcji, o nazwie Lokalny deskryptor powierzchni, został skonstruowany i wykorzystany do szkolenia modeli opartych na CNN do wykrywania deepfake. Wyniki eksperymentów przeprowadzonych w różnych kontekstach operacyjnych wykazują znaczną dokładność wykrywania do 90%.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Międzynarodowa konferencja IEEE 2024 na temat wyzwań i warsztatów związanych z przetwarzaniem obrazu (ICIPCW), Abu Zabi, Zjednoczone Emiraty Arabskie, 2024 r.

Dostęp tutaj

Autorzy:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Streszczenie:

Rzeczywista zdolność do generowania realistycznych, w pełni syntetycznych obrazów przez sztuczną inteligencję poprawia się z dnia na dzień i jest to szczególnie prawdziwe w przypadku obrazów przedstawiających ludzkie twarze, które wydają się nie do odróżnienia od prawdziwych ludzi. Stwarza to kluczową potrzebę opracowania instrumentów zdolnych do rozróżniania między prawdziwymi a nie istniejącymi ludźmi poprzez wykrywanie pewnych ewentualnych niespójności osadzonych w obrazach podczas procesu generowania. Główna różnica między nieskazitelnym obrazem a wygenerowanym deepfake polega na tym, że w drugim przypadku nie doszło do skutecznego pozyskania kamery; Tak więc wszystkie różne wzajemne zależności między elementami należącymi do sceny (światła, odbicia, odpowiednie pozycje obiektów w przestrzeni 3D) nie są zajęte przez rzeczywisty świat w tej precyzyjnej chwili czasowej, ale po prostu sztucznie odtworzone. Zgodnie z tym rozważaniem, w tej pracy wprowadzamy lokalne kadry powierzchniowe kamery jako możliwy środek do reprezentowania tych specyficznych cech środowiskowych w celu podkreślenia różnic. Przeprowadzona analiza eksperymentalna wykazała, że funkcja ta może zapewnić bardzo wysoki poziom dokładności i znaczny stopień uogólnienia.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Międzynarodowa konferencja IEEE 2024 na temat wyzwań i warsztatów związanych z przetwarzaniem obrazu (ICIPCW), Abu Zabi, Zjednoczone Emiraty Arabskie, 2024 r.

Dostęp tutaj

Autorzy:
Andrea Ciamarra, Roberto Caldelli, Alberto Del Bimbo

Streszczenie:

Niezwykłe nierealne obrazy można zrealizować za pomocą pow-erful technik AI. Różne narzędzia dostępne dla każdego są w stanie odtworzyć wysokiej jakości treści, zwłaszcza generując całe w pełni syntetyczne obrazy. Wśród istniejących architektur modele oparte na dyfuzji mogą z łatwością tworzyć wszelkiego rodzaju obrazy, w tym ludzkie wizerunki twarzy, dając monit jak tekst. Takie fałszywe treści są często wykorzystywane do rozpowszechniania dezinformacji, co budzi obawy o bezpieczeństwo ludzi. Obecnie coraz trudniej jest opracować wiarygodne instrumenty pozwalające odróżnić ludzi rzeczywistych od generowanych (nawet nieistniejących). Ponadto duża liczba wdrożeń opartych na dyfuzji stanowi dla takich detektorów problem polegający na upowszechnianiu nowatorskich technik generatywnych. Aby rozwiązać te problemy, proponujemy zbadanie zdolności charakterystycznej cechy, opartej na środowisku akwizycji obrazu, do oddzielenia obrazów twarzy opartych na dyfuzji od nieskazitelnych. W rzeczywistości generowane obrazy nie powinny zawierać cech właściwych dla fazy akwizycji wykonywanej za pomocą prawdziwej kamery. Takie niespójności można podkreślić za pomocą niedawno wprowadzonych lokalnych ram powierzchniowych. Ta funkcja uwzględnia obiekty i powierzchnie zaangażowane w scenę, które mają wpływ na proces akwizycji kamery, a także dalsze wewnętrzne informacje związane z urządzeniem, a także oświetlenie i odbicia mające wpływ na cały scenariusz. W artykule zbadano zdolność tej funkcji do uogólniania w kierunku różnych zbiorów danych i nowych metod generatywnych nieznanych podczas szkolenia. Wyniki eksperymentów wskazują, że taka funkcja nadal zapewnia znaczny poziom dokładności wykrywania również w tych przypadkach.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Międzynarodowa konferencja IEEE 2024 na temat wyzwań i warsztatów związanych z przetwarzaniem obrazu (ICIPCW), Abu Zabi, Zjednoczone Emiraty Arabskie, 2024 r.

Dostęp tutaj

Autorzy:
Álvaro Parafita, Tomas Garriga, Axel Brando, Francisco J. Cazorla

Streszczenie:

Wśród technik wyjaśnialności SHAP wyróżnia się jako jedna z najpopularniejszych, ale często pomija przyczynową strukturę problemu. W odpowiedzi do-SHAP wykorzystuje zapytania interwencyjne, ale poleganie na szacunkach utrudnia jego praktyczne zastosowanie. Aby rozwiązać ten problem, proponujemy zastosowanie podejść estymand-agnostic, które pozwalają na oszacowanie każdego możliwego do zidentyfikowania zapytania z jednego modelu, dzięki czemu do-SHAP jest wykonalny na złożonych wykresach. Opracowujemy również nowatorski algorytm, aby znacznie przyspieszyć jego obliczanie przy znikomych kosztach, a także metodę wyjaśniania niedostępnych procesów generowania danych. Pokazujemy oszacowanie i wydajność obliczeniową naszego podejścia i walidujemy je na dwóch rzeczywistych zbiorach danych, podkreślając jego potencjał w uzyskiwaniu wiarygodnych wyjaśnień.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Trzydziesta dziewiąta doroczna konferencja na temat neuronowych systemów przetwarzania informacji (NeurIPS 2025)

Dostęp tutaj

Autorzy:
Alamgir Munir Qazi, John Philip McCrae, Jamal Nasir

Streszczenie:

Rozprzestrzenianie się informacji wprowadzających w błąd wymaga solidnych, ale wydajnych obliczeniowo systemów weryfikacji faktów. Podczas gdy obecne najnowocześniejsze podejścia wykorzystują duże modele językowe (LLM) do generowania uzasadnień wyjaśniających, metody te napotykają znaczne bariery obliczeniowe i ryzyko halucynacji w zastosowaniach w świecie rzeczywistym. Przedstawiamy DeReC (Dense Retrieval Classification), lekką strukturę, która pokazuje, w jaki sposób osadzanie tekstu ogólnego przeznaczenia może skutecznie zastąpić autoregresywne podejścia oparte na LLM w rzeczywistości zadania weryfikacyjne. Łącząc gęste wyszukiwanie ze specjalistyczną klasyfikacją, nasz system osiąga lepszą dokładność, a jednocześnie jest znacznie bardziej wydajny. DeReC przewyższa LLM generujące wyjaśnienia pod względem wydajności, skracając czas pracy o 95% na RAWFC (23 minuty 36 sekund w porównaniu do 454 minut 12 sekund) i 92% na LIAR-RAW (134 minuty 14 sekund w porównaniu do 1692 minut 23 sekund), pokazując jego skuteczność w różnych rozmiarach zbiorów danych. W zbiorze danych RAWFC DeReC osiąga wynik F1 na poziomie 65,58.%, przewyższając najnowocześniejszą metodę L-Defense (61.20%). Nasze wyniki pokazują, że starannie zaprojektowane systemy oparte na odzyskiwaniu mogą pasować lub przekraczać wydajność LLM w specjalistycznych zadaniach, a jednocześnie są znacznie bardziej praktyczne w przypadku wdrażania w świecie rzeczywistym.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
V Konferencja Język, Dane i Wiedza

Dostęp tutaj

Autorzy:
Qiushi Li, Andrea Ciamarra, Roberto Caldelli i Stefano Berretti

Streszczenie:

W przypadku zadania A (Synthetic Image Detection) w ramach MediaEval 2025 SynthIm Challenge zidentyfikowaliśmy krytyczną zmianę dystrybucji między danymi szkoleniowymi i testowymi, co sprawia, że te pierwsze są słabo reprezentatywne dla domeny docelowej. Nasze podejście bezpośrednio odpowiada na to wyzwanie, włączając bardziej spójny stylistycznie zestaw walidacji do naszych danych treningowych i wykorzystując zamrożony CLIP ViT-L/14 jako solidny ekstraktor funkcji. Naszym głównym spostrzeżeniem jest to, że w takich warunkach zmiany domeny uogólnione reprezentacje z dużego wstępnie wyszkolonego modelu znacznie przewyższają tradycyjną CNN dostrojoną do niedopasowanego zbioru danych, co okazuje się bardziej skuteczną i niezawodną strategią.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
MediaEval”25: Multimedialne warsztaty oceniające, 25–26 października 2025 r., Dublin, Irlandia i online

Dostęp na żądanie

Autorzy:
Qiushi Li, Roberto Caldelli i Stefano Berretti

Streszczenie:

Szybki rozwój modeli generowania obrazów, takich jak Stable Diffusion, budzi obawy dotyczące potencjalnego niewłaściwego wykorzystania, co sprawia, że solidne techniki znakowania wodnego są niezbędne do uwierzytelniania i przypisywania treści syntetycznych, zwłaszcza w zwalczaniu deepfake'ów. Jednak jednoczesne zapewnienie wysokiej jakości generowania obrazu i dokładnego ekstrakcji znaków wodnych pozostaje wyzwaniem. Poprzez analizę istniejących metod identyfikujemy krytyczne ograniczenie:
ich funkcje utraty często przyjmują pojedyncze odniesienie (obraz wejściowy lub czysty wygenerowany obraz) w celu optymalizacji wierności obrazu, co prowadzi do nieoptymalnej wydajności. W tym artykule przeprowadzamy dogłębne badanie terminu utraty jakości obrazu w znakowaniu wodnym opartym na dyfuzji. Analizując wyraźny wpływ wykorzystania obrazu wejściowego w porównaniu z czystym wygenerowanym obrazem jako odniesieniem podczas optymalizacji, ujawniamy, że wspólne uwzględnienie obu odniesień znacznie poprawia solidność i jakość wizualną. Rozległe eksperymenty pokazują, że nasze podejście oparte na podwójnych odniesieniach osiąga doskonałą wydajność zarówno pod względem dokładności ekstrakcji znaku wodnego, jak i wierności generacji w porównaniu z pojedynczymi referencyjnymi poziomami bazowymi. Opowiadamy się za tym paradygmatem, aby rozwijać niezawodne znakowanie wodne w modelach generatywnych.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
DFF ’25: Postępowania z pierwszego na Deepfake Forensics Workshop: Wykrywanie, atrybucja, rozpoznawanie i kontrowersyjne wyzwania w erze mediów generowanych przez sztuczną inteligencję

Dostęp tutaj

Autorzy:
Josu Eguiluz Castañeira, Axel Brando, Migle Laukyte, Marc Serra-Vidal

Streszczenie:

Sztuczna inteligencja (AI) przenika obecnie infrastrukturę krytyczną i systemy podejmowania decyzji, w których awarie powodują szkody społeczne, gospodarcze i demokratyczne. Niniejszy dokument przedstawiający stanowisko kwestionuje ugruntowane przekonanie, że regulacje i innowacje są przeciwieństwami. Jak pokazują analogie z lotnictwa, farmaceutyków i systemów opieki społecznej oraz niedawne przypadki syntetycznych informacji wprowadzających w błąd, stronniczości i nieodpowiedzialnego podejmowania decyzji, brak dobrze zaprojektowanych regulacji spowodował już niewymierne szkody. Regulacja, gdy jest przemyślana i dostosowana, nie hamuje innowacji – jest jej podstawą. W niniejszym stanowisku przeanalizowano unijny akt w sprawie sztucznej inteligencji jako model regulacji opartych na analizie ryzyka i odpowiedzialności, który rozwiązuje dylemat Collingridge’a: działanie na tyle wcześnie, aby zapobiec szkodom, a jednocześnie na tyle elastycznie, aby podtrzymać innowacje. Jego mechanizmy adaptacyjne – piaskownice regulacyjne, wsparcie dla małych i średnich przedsiębiorstw (MŚP), testy w warunkach rzeczywistych, ocena wpływu na prawa podstawowe (FRIA) – pokazują, w jaki sposób regulacje mogą w sposób odpowiedzialny przyspieszyć, a nie opóźnić postęp technologiczny. W dokumencie przedstawiającym stanowisko podsumowano, w jaki sposób narzędzia zarządzania przekształcają postrzegane obciążenia w wymierne korzyści: pewność prawa, zaufanie konsumentów i etyczna konkurencyjność. Ostatecznie dokument przeformułowuje postęp: innowacje i regulacje rozwijają się razem. Dzięki włączeniu przejrzystości, ocen skutków, rozliczalności i umiejętności korzystania ze sztucznej inteligencji do projektowania i wdrażania ramy UE określają, co naprawdę oznaczają odpowiedzialne innowacje – ambicje technologiczne zdyscyplinowane wartościami demokratycznymi i prawami podstawowymi.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Trzydziesta dziewiąta doroczna konferencja na temat neuronowych systemów przetwarzania informacji (NeurIPS 2025)

Dostęp tutaj

Autor: Pascaline Gaborit

Streszczenie:

W dobie globalnej niepewności zaufanie stało się kluczowym czynnikiem kształtującym relacje między narodami, instytucjami i jednostkami. Ta książka, Trust, New Technologies and Geopolitics in an Uncertain World (Zaufanie, nowe technologie i geopolityka w niepewnym świecie), oferuje terminowe i dogłębne zbadanie, w jaki sposób zaufanie jest testowane i przekształcane w obliczu szybko zmieniających się krajobrazów geopolitycznych. Od kruchości systemów demokratycznych po wyzwania związane z nowymi technologiami, sztuczną inteligencją, dezinformacją i zmianą klimatu, ta książka zagłębia się w najpilniejsze kwestie naszych czasów. Analizując powiązania zaufania z kluczowymi obszarami, takimi jak demokracje, wojny handlowe i nowe technologie, praca ta dostarcza cennych informacji decydentom politycznym, naukowcom i wszystkim, którzy chcą zrozumieć złożoność dzisiejszego świata. Niezależnie od tego, czy chodzi o cyberbezpieczeństwo, dezinformację, wpływ zagrożeń hybrydowych czy rolę zaufania w dyplomacji międzynarodowej, niniejsza książka oferuje kompleksowe, ale dostępne ramy umożliwiające sprostanie tym wyzwaniom. Rzuca światło na to, jak zrozumienie zaufania jest kluczem do rozwiązania geopolitycznych niepewności, które definiują nasz wiek.

Rodzaj publikacji:
Książka

Wydawca:
Wydawca Peter Lang

Dostęp tutaj

Autor:

Eddie Conti, Álvaro Parafita, Axel Brando

Streszczenie:

Ocena znaczenia poszczególnych funkcji w uczeniu maszynowym ma kluczowe znaczenie dla zrozumienia procesu decyzyjnego modelu. Chociaż istnieje wiele metod, brak ostatecznej podstawy do porównania wskazuje na potrzebę alternatywnych, dobrze uzasadnionych środków. W artykule przedstawiono nową metodę post-hoc lokalnego znaczenia cech o nazwie Counterfactual Importance Distribution (CID). Generujemy dwa zestawy pozytywnych i negatywnych scenariuszy alternatywnych, modelujemy ich rozkłady za pomocą Kernel Density Estimation i szeregujemy funkcje na podstawie miary dystrybucyjnej odmienności. Miara ta, oparta na rygorystycznych ramach matematycznych, spełnia kluczowe właściwości wymagane do funkcjonowania jako ważna metryka. Pokazujemy skuteczność naszej metody, porównując ją z dobrze znanymi lokalnymi wyjaśniaczami znaczenia cech. Nasza metoda oferuje nie tylko komplementarne perspektywy do istniejących podejść, ale także poprawia wyniki w zakresie mierników wierności (zarówno pod względem kompleksowości, jak i wystarczalności), co skutkuje wierniejszymi wyjaśnieniami systemu. Wyniki te podkreślają jego potencjał jako cennego narzędzia do analizy modeli.

Rodzaj publikacji:
Dokument konferencyjny

Wydawca:
Konferencja Northern Lights Deep Learning 2026

Dostęp tutaj