Eveniment multipartit la Sofia

La 25 noiembrie, AI4Debunk a organizat cea de-a doua reuniune multi‑stakeholder la Sofia. 11 participanți – jurnaliști, fact‑checkers, cadre universitare, activiști civici ai ‑tech și membri ai echipei de proiect – s-au reunit la Clubul jurnaliștilor „Journalist” al Uniunii Jurnaliștilor din Bulgaria pentru a face schimb de opinii cu privire la răspunsurile AI‑powered la știrile false și pentru a testa primele ipoteze din pachetul de lucru 12.

Dezinformarea, IA și contextul mediatic bulgar

Sesiunea a început cu o prezentare generală a obiectivelor AI4Debunk și a progreselor actuale, realizată de echipa EURACTIV Bulgaria. Discuțiile s-au axat rapid pe vulnerabilitatea deosebită a Bulgariei la campaniile străine de dezinformare sponsorizate de ‑. Majoritatea participanților au fost de acord că „noua normalitate” a conținutului manipulat modelează deja dezbaterea publică și că ‑grown, precum și actorii externi exploatează ecosistemele platformelor de comunicare socială ‑ pentru a aprofunda diviziunile sociale.

Participanții au subliniat că soluțiile IA trebuie să fie transparente, explicabile și adaptate utilizatorilor cu niveluri foarte diferite de educație în domeniul mass-mediei, în special persoanelor în vârstă și cetățenilor din regiunile rurale. Mai mulți vorbitori au salutat Regulamentul UE privind IA, dar și-au exprimat îndoielile cu privire la modul în care punerea în aplicare va funcționa în practică; un anuar public privind proprietatea asupra mass-mediei și finanțarea acesteia a fost sugerat ca o garanție suplimentară împotriva operațiunilor de influență sub acoperire.

Informații despre public: Percepții și comportament

În urma prezentării, participanții s-au angajat într-o discuție activă utilizând un format semistructurat. Feedbackul din partea publicului a oferit informații valoroase cu privire la percepția dezinformării și la potențialele aplicații ale instrumentelor IA în abordarea acesteia:

    • Familiarizarea cu proiectul: Cinci participanți au fost deja conștienți de AI4Debunk, în timp ce trei l-au întâlnit pentru prima dată.
    • Percepția știrilor false: Șase participanți au văzut știrile false ca pe o amenințare serioasă, dar unul a considerat că subiectul este exagerat.
    • Experienta cu Inteligenta Artificiala: Șapte participanți utilizaseră instrumente de IA, în timp ce trei nu utilizaseră astfel de instrumente.
    • Întâlniri cu știri false generate de IA: Șase participanți au dat peste știri false generate de IA, deși unul a recunoscut că a acordat puțină atenție acestora.
    • Combaterea dezinformării: Șapte au fost de acord cu privire la importanța abordării știrilor false, în timp ce unul a considerat că problema a fost exagerată.
    • Vulnerabilitatea Bulgariei: Nouă participanți au considerat că Bulgaria este deosebit de susceptibilă la campanii de dezinformare.
    • Disponibilitatea de a participa: Șapte și-au exprimat interesul de a se alătura unor proiecte precum AI4Debunk, în timp ce unul nu a arătat nici un interes.
    • Experienta personala cu stirile false: Cinci au recunoscut că s-au îndrăgostit de știrile false în trecut, iar opt au observat știri false în mass-media.
    • Eforturi pentru a-i proteja pe ceilalți: Nouă participanți au raportat că și-au avertizat familia și prietenii cu privire la dezinformare.
    • Abilitatea de a recunoaște știrile false: Opt s-au simțit încrezători în capacitatea lor de a detecta știrile false.

Teme cheie și Take‑aways

Accesul și încrederea în instrumentele IA: Discuția a evidențiat necesitatea de a face instrumentele IA accesibile unui public mai larg, în special persoanelor în vârstă și persoanelor mai puțin pricepute în domeniul tehnologiei. Construirea încrederii în aceste instrumente a fost recunoscută ca fiind critică, deoarece chiar și verificatorii reputați ai veridicității informațiilor se confruntă adesea cu scepticism.

    • Umbrele dezinformării: Participanții au recunoscut că există informații false într-un spectru care variază de la dezinformare accidentală la dezinformare deliberată. Încadrarea mesajelor, în special prin intermediul limbajului emoțional, influențează modul în care cititorii interpretează conținutul.
    • Rolul mass-mediei și al colaborării: Unii au pledat pentru colaborarea dintre jurnaliști și verificatorii veridicității informațiilor pentru a spori acuratețea știrilor, cu accent pe transparență și responsabilitate în mass-media.
    • Combaterea actorilor răuvoitori: Participanții au discutat despre provocările legate de identificarea și combaterea campaniilor deliberate de dezinformare, cu informații împărtășite din studii de caz privind tacticile adaptive de dezinformare, în special cele din Rusia.
    • Educația și demistificarea IA: S-a lansat un apel pentru a promova înțelegerea de către public a IA și a mecanismelor sale, începând cu educația timpurie. Acest lucru ar putea contribui la stimularea curiozității și la capacitarea persoanelor să utilizeze în mod eficace instrumentele IA.

Discuția a subliniat complexitatea abordării știrilor false și necesitatea unei abordări holistice care să implice tehnologia, educația și colaborarea între sectoare. Evenimentul a promovat în mod eficace un dialog semnificativ între părțile interesate, abordând obiectivele proiectului și explorând soluții la provocările generate de dezinformare.

Mai multe din AI4Debunk

Mini-Simpozionul AI4Debunk: IA și dezinformarea – Tehnologia, alfabetizarea mediatică și politica vor explora provocările și oportunitățile pe care inteligența artificială le aduce în lupta împotriva dezinformării.
EUalive a organizat o discuție publică menită să exploreze modul în care instrumentele bazate pe IA pot sprijini eforturile de combatere a știrilor false și a dezinformării.
În ultimii ani, dezinformarea a trecut de la fotografii ocazionale de „știri false” la o amenințare sistemică care utilizează manipularea lingvistică, mecanismele mass-mediei, inteligența artificială și strategiile politice transnaționale pentru a