Pe 6 iulie, Prof. Inna Šteinbuka de la Universitatea din Letonia, coordonatorul nostru de proiect, a participat la o discuție de grup provocatoare la Festivalul de Conversații LAMPA, intitulat „Amenințarea pe care o reprezintă inteligența artificială pentru securizarea informațiilor nu va fi oprită nici măcar de mass-media de încredere. Sunteți (nu) de acord?”.
Festivalul de Conversații LAMPA are loc la Cēsis și este renumit pentru promovarea dialogului deschis și a schimbului de idei într-o atmosferă relaxată, dezbătând subiecte presante pentru Letonia, Europa și întreaga lume.
Organizată de LSM.lv, portalul de știri unificat al serviciilor publice de televiziune, radio și online din Letonia, această masă rotundă s-a axat pe provocările și oportunitățile pe care le prezintă IA în contextul securității informațiilor și al credibilității mass-mediei.
Conversația a fost moderată de editorul de știri al LSM.lv, Edgars Zicāns, și a inclus vorbitori distinși din diferite domenii:
- Inna Šteinbuka, șef al proiectului AI4Debunk și profesor la Universitatea din Letonia
- Jānis Sārts, director al Centrului de excelență pentru comunicare strategică al NATO
- Andrejs Judins, membru al Saeima și președinte al Comisiei juridice a Saeima
- Kārlis Miksons, editor pe platformele de comunicare socială al serviciului de știri al televiziunii letone și membru al grupului de experți pe platformele de comunicare socială al Uniunii Europene de Radio și Televiziune
- Kristiāna Grāmatiņa, manager al podcastului „Este ușor să fii?” legat de tehnologia informației


Edgars Zicāns

Inna Šteinbuka

Jānis Sārts

Andrejs Judins

Kārlis Miksons

Kristiāna Grāmatiņa
Participanții s-au angajat într-o discuție foarte profundă, abordând subiecte-cheie precum:
1. ROLUL IA ÎN DISINFORMARE
Tehnologiile IA sunt din ce în ce mai sofisticate în ceea ce privește crearea și răspândirea dezinformării, de la imitarea unor personalități influente la generarea de materiale video false realiste. Această capacitate ne provoacă capacitatea de a avea încredere în ceea ce vedem și auzim.
Aș dori să vă reamintesc o afirmație pe care bine-cunoscutul scriitor Mark Twain a spus-o odată - el a spus că este mai ușor să înșeli o persoană decât să o convingi că a fost înșelată. A trăit mult timp în urmă, dar cred că dacă ar trăi acum, citatul său ar fi și mai relevant, pentru că acum noi înșine nu știm dacă ne putem crede ochii și urechile sau nu.
Inna Šteinbuka
2. Gândire critică și încredere
Vorbitorii au subliniat importanța gândirii critice. Oamenii care gândesc critic și înțeleg contextul sunt mai greu de indus în eroare. Cu toate acestea, chiar și persoanele educate pot cădea pradă teoriilor conspirației, ceea ce evidențiază provocarea omniprezentă a dezinformării și a dezinformării.
3. PERCEPȚIA UMANĂ ȘI IA
Jānis Sārts de la Centrul de excelență pentru comunicare strategică al NATO a remarcat că creierele umane, care sunt ușor de înșelat prin trucuri magice, sunt la fel de susceptibile la conținutul generat de IA. El a subliniat necesitatea utilizării IA pentru a contracara dezinformarea și dezinformarea.
Îmi place citatul care spune că problema vremurilor noastre este că avem creiere paleolitice, structuri medievale și tehnologie divină și pur și simplu nu merge bine împreună. (...) Atunci întrebarea este, cum ne descurcăm cu asta? Cred că există un singur răspuns. Aceeași inteligență artificială este ceea ce trebuie să aduceți în echipamentul dvs. pentru a aborda această problemă. Pentru că, îmi pare rău, creierul nostru paleolitic nu este potrivit pentru asta.”
Jānis Sārts
4. MĂSURI JURIDICE ȘI REGULATORICE
Andrejs Judins de la Comisia juridică a Saeima a discutat despre evoluția cadrelor juridice pentru a aborda rolul IA în dezinformarea politică, inclusiv posibila răspundere penală pentru deepfake-uri în timpul alegerilor.
5. IMPERATIVĂ EDUCAȚIONALĂ
Grupul a subliniat necesitatea integrării educației AI în programa școlară pentru a pregăti generațiile viitoare să navigheze și să utilizeze aceste tehnologii în mod eficient.
„(...) La fel ca în cazul oricărui alt domeniu tehnologic, cei care învață primii vor câștiga mult și vor fi mulți care vor fi lăsați în urmă, fără locuri de muncă, oportunități de carieră și așa mai departe. (...) Acest lucru este valabil și pentru școală - trebuie să integrăm inteligența artificială în sistemul nostru de învățământ. (...) Dacă dorim ca tinerii noștri să poată face față acestei situații în viitor, trebuie să îi instruim să utilizeze aceste abilități aproape automat.”
Jānis Sārts
6. RESPONSABILITATE COLECTIVĂ
În timp ce indivizii trebuie să învețe să analizeze critic informațiile, există și o responsabilitate colectivă. Aceasta include reglementarea principalelor platforme de comunicare socială pentru a limita răspândirea dezinformării și a dezinformării.
„Trebuie să putem reglementa acești giganți, deoarece ei sunt platformele principale în care dezinformarea se răspândește foarte rapid și ajunge la oameni (...) Fiecare dintre noi poate fi responsabil pentru noi înșine. Putem învăța să analizăm critic informațiile cât de mult putem, dar este un fel de lucru colectiv.”
Kristiāna Grāmatiņa
7. MEDIA ȘI IA
Au fost dezbătute, de asemenea, implicațiile IA pentru viitorul mass-mediei. Este posibil ca mass-media tradițională să trebuiască să se adapteze prin integrarea instrumentelor IA pentru a menține credibilitatea și eficacitatea în furnizarea de informații exacte.
8. ADOPȚIA PUBLICĂ A IA
Un sondaj realizat de centrul de cercetare Norstat și LSM.lv a arătat că 44% dintre rezidenții letoni au utilizat instrumente de IA, populațiile mai tinere fiind mai susceptibile de a fi utilizat aceste tehnologii. Acest lucru dezvăluie o familiaritate și o dependență din ce în ce mai mare de IA în cadrul diferitelor demografii.
9. Proiect AI4DEBUNK
Inna Šteinbuka de la Universitatea din Letonia a informat publicul cu privire la obiectivele AI4Debunk. Proiectul se concentrează pe dezvoltarea unor instrumente prietenoase cu oamenii pentru a demonta dezinformarea, subliniind necesitatea de a crea metode accesibile și eficiente pentru ca publicul să identifice și să combată informațiile false.
Credite foto: Karīna Egliena și Kristaps Briedis
Pe scurt, discuția a scos la lumină natura duală a IA în securitatea mass-mediei și a informațiilor, pledând pentru o abordare echilibrată care să valorifice beneficiile IA, atenuând în același timp riscurile acesteia prin educație, reglementare și gândire critică.
🎦 Urmăriți discuția de grup înregistrată (în limba letonă) aici.
🔤 Un rezumat scris este disponibil sub videoclip. Pentru a o citi în limba engleză, activați funcția de traducere automată din browserul dvs.




