6 lipca Prof. Inna Šteinbuka z Uniwersytetu Łotewskiego, nasza koordynatorka projektu, wzięła udział w prowokującej do myślenia dyskusji panelowej na LAMPA Conversation Festival, zatytułowanej Zagrożenie, jakie sztuczna inteligencja stwarza dla zabezpieczenia informacji, nie zostanie powstrzymane nawet przez wiarygodne media. Czy (nie)zgadzają się Państwo?”.
LAMPA Conversation Festival odbywa się w Cēsis i słynie z wspierania otwartego dialogu i wymiany pomysłów w miłej atmosferze, debatując na palące tematy dla Łotwy, Europy i świata.
Dyskusja panelowa, zorganizowana przez LSM.lv, jednolity portal informacyjny łotewskiej telewizji publicznej, radia i usług internetowych, koncentrowała się na: wyzwania i możliwości związane ze sztuczną inteligencją w kontekście bezpieczeństwa informacji i wiarygodności mediów.
Rozmowa była moderowana przez redaktora prasowego LSM.lv Edgarsa Zicānsa i obejmowała wybitnych panelistów z różnych dziedzin:
- Inna Šteinbuka, kierownik projektu AI4Debunk i profesor na Uniwersytecie Łotewskim
- Jānis Sārts, dyrektor Centrum Doskonałości ds. Komunikacji Strategicznej NATO
- Andrejs Judins, członkini Saeima i przewodnicząca Komisji Prawnej Saeima
- Kārlis Miksons, redaktor ds. mediów społecznościowych łotewskiej telewizji i członek grupy ekspertów ds. mediów społecznościowych Europejskiej Unii Nadawców
- Kristiāna Grāmatiņa, kierownik podcastu „Czy łatwo jest być?” związanego z technologią informacyjną


Edgars Zicāns

Inna Šteinbuka

Jānis Sārts

Andrejs Judins

Kārlis Miksons

Kristiāna Grāmatiņa
Paneliści zaangażowali się w bardzo wnikliwą dyskusję, poruszając kluczowe tematy, takie jak:
1. Rola sztucznej inteligencji w ujawnianiu informacji
Technologie AI są coraz bardziej wyrafinowane w tworzeniu i rozpowszechnianiu dezinformacji, od naśladowania wpływowych postaci po generowanie realistycznych fałszywych filmów. Ta zdolność podważa naszą zdolność do zaufania temu, co widzimy i słyszymy.
"Chciałbym przypomnieć wam jedno powiedzenie, które powiedział kiedyś znany pisarz Mark Twain - powiedział, że łatwiej jest oszukać osobę, niż przekonać go, że został oszukany. Żył dawno temu, ale myślę, że gdyby żył teraz, jego cytat byłby jeszcze bardziej istotny, ponieważ teraz sami nie wiemy, czy możemy wierzyć naszym oczom i uszom, czy nie.
Inna Šteinbuka
2. KRYTYCZNE MYŚLENIE I ZAUFANIE
Prelegenci podkreślali znaczenie krytycznego myślenia. Ludziom, którzy myślą krytycznie i rozumieją kontekst, trudniej jest wprowadzić w błąd. Jednak nawet wykształcone osoby mogą zakochać się w teoriach spiskowych, które podkreślają wszechobecne wyzwanie dezinformacji i dezinformacji.
3. PERCEPCJA CZŁOWIEKA I SI
Jānis Sārts z Centrum Doskonałości Komunikacji Strategicznej NATO zauważył, że ludzkie mózgi, które łatwo oszukać za pomocą magicznych sztuczek, są podobnie podatne na treści generowane przez sztuczną inteligencję. Podkreślił potrzebę wykorzystania sztucznej inteligencji do przeciwdziałania dezinformacji i dezinformacji.
Uwielbiam ten cytat, który mówi, że problemem naszych czasów jest to, że mamy paleolityczne mózgi, średniowieczne struktury i boską technologię, a to po prostu nie idzie dobrze razem. (...) W takim razie pytanie brzmi: jak sobie z tym radzić? Myślę, że jest tylko jedna odpowiedź. Ta sama sztuczna inteligencja jest tym, co musisz wnieść do swojego sprzętu, aby rozwiązać ten problem. Ponieważ, przepraszam, nasz paleolityczny mózg nie jest do tego odpowiedni”.
Jānis Sārts
4. ŚRODKI PRAWNE I REGULACYJNE
Andrejs Judins z Komisji Prawnej Saeimy omówił zmieniające się ramy prawne w celu zwalczania roli sztucznej inteligencji w dezinformacji politycznej, w tym potencjalną odpowiedzialność karną za deepfake podczas wyborów.
5. IMPERATYWA EDUKACYJNA
Panel podkreślił konieczność włączenia edukacji AI do programu szkolnego, aby przygotować przyszłe pokolenia do skutecznego poruszania się i wykorzystywania tych technologii.
„(...) Podobnie jak w przypadku wszystkich innych technologii, ci, którzy uczą się jako pierwsi, wiele zyskają i będzie wielu, którzy pozostaną w tyle, bez pracy, możliwości rozwoju zawodowego i tak dalej. (...) Dotyczy to również szkoły - musimy włączyć sztuczną inteligencję do naszego systemu edukacji. (...) Jeśli chcemy, aby nasi młodzi ludzie byli w stanie poradzić sobie z tym w przyszłości, musimy przeszkolić ich, aby korzystali z tych umiejętności niemal automatycznie.”
Jānis Sārts
6. ODPOWIEDZIALNOŚĆ ZBIORCZA
Podczas gdy jednostki muszą nauczyć się krytycznie analizować informacje, istnieje również zbiorowa odpowiedzialność. Obejmuje to regulację głównych platform mediów społecznościowych w celu ograniczenia rozpowszechniania informacji wprowadzających w błąd i dezinformacji.
„Musimy być w stanie regulować tych gigantów, ponieważ są oni głównymi platformami, na których dezinformacja rozprzestrzenia się bardzo szybko i dociera do ludzi (...) Każdy z nas może być odpowiedzialny za siebie. Możemy nauczyć się jak najwięcej krytycznej analizy informacji, ale jest to coś w rodzaju kolektywu”.
Kristiāna Grāmatiņa
7. Media i sztuczna inteligencja
Omówiono również implikacje sztucznej inteligencji dla przyszłości mediów. Tradycyjne media mogą wymagać dostosowania poprzez integrację narzędzi sztucznej inteligencji, aby zachować wiarygodność i skuteczność w dostarczaniu dokładnych informacji.
8. PUBLICZNE PRZYJĘCIE SI
Ankieta przeprowadzona przez centrum badawcze Norstat i LSM.lv ujawniła, że 44% mieszkańcy Łotwy korzystali z narzędzi sztucznej inteligencji, przy czym młodsze populacje częściej korzystały z tych technologii. Ujawnia to rosnącą znajomość i zależność od sztucznej inteligencji w różnych grupach demograficznych.
9. Projekt AI4DEBUNK
Inna Šteinbuka z Uniwersytetu Łotewskiego poinformowała publiczność o celach AI4Debunk. Projekt koncentruje się na opracowaniu przyjaznych dla człowieka narzędzi do obalania dezinformacji, podkreślając konieczność stworzenia dostępnych i skutecznych metod identyfikacji i zwalczania fałszywych informacji.
Zdjęcie: Karīna Egliena i Kristaps Briedis
Krótko mówiąc, dyskusja ujawniła dwutorowy charakter sztucznej inteligencji w bezpieczeństwie mediów i informacji, opowiadając się za zrównoważonym podejściem wykorzystującym korzyści płynące ze sztucznej inteligencji przy jednoczesnym ograniczaniu związanego z nią ryzyka poprzez edukację, regulacje i krytyczne myślenie.
🎦 Obejrzyj nagrany panel dyskusyjny (w języku łotewskim) tutaj.
🔤 Pisemne podsumowanie jest dostępne poniżej filmu. Aby przeczytać go w języku angielskim, włącz funkcję automatycznego tłumaczenia w przeglądarce.




