Засідання за участю багатьох зацікавлених сторін

Багатосторонній захід у Брюсселі

5 вересня Pilot4DEV провів зустріч із багатьма зацікавленими сторонами в Прес-клубі в Брюсселі, об'єднавши провідних експертів, дослідників та практиків для обміну знаннями, обговорення стратегій боротьби з фальшивими новинами та вивчення того, як інструменти штучного інтелекту можуть бути розроблені для ефективного вирішення цих проблем.

На заході проект AI4Debunk разом з початковими висновками нашого поточного онлайн-опитування ( ⁇Англійська мова (Українська), ⁇французьку мову, ⁇німецьку мову, ⁇норвезька мова, ⁇грецьку мову, ⁇латиською мовою, ⁇українська) були представлені. Це стало основою для жвавого круглого столу, основні моменти якого детально описані нижче.

1. Проекти проектування інструментів

Дискусія не тільки підкреслила соціальні аспекти дезінформації, але й дослідила індивідуальні психологічні фактори, які роблять людину вразливою до маніпулювання інформацією в Інтернеті. Було запропоновано враховувати ці психологічні елементи при розробці AI-інструментів проекту, спрямованих на боротьбу з дезінформацією.

Учасники висловили зацікавленість у розробці інструментів, ставлячи під сумнів вибір чотирьох специфічних інтерфейсів ⁇ Веб-плагін, Disinfopedia, App та AR/VR ⁇ та те, як вони узгоджуються з цілями проекту. Були висловлені побоювання щодо забезпечення доступності інструментів для широкої громадськості, особливо для тих, хто може отримати від них найбільшу користь, таких як літні люди або менш технічно підковані особи. Хоча був певний скептицизм щодо того, чи будуть ці групи легко приймати додатки або системи AR/VR, загальний консенсус полягав у тому, що інструменти, особливо додаток, повинні бути зручними для користувача.

Основна увага в обговоренні була зосереджена на побудові довіри як надійного джерела, яке учасники визначили як вирішальне значення для заохочення широкого використання інструментів. Кілька зацікавлених сторін визнали виклик встановлення довіри, навіть для визнаних фактчекерів. Зокрема, вразливі особи менш схильні довіряти інструментам перевірки фактів, керованим штучним інтелектом, тоді як більш обізнані користувачі можуть бути готові експериментувати з ними.  

2. Дезінформація проти дезінформації

Учасники також поцікавилися нашими визначеннями дезінформації та дезінформації. Це призвело до більш широкої дискусії щодо концепції фейкових новин та її різних відтінків: неправдива інформація існує в спектрі від ненавмисної дезінформації до навмисної дезінформації.

Те, як інформація оформлена, особливо за допомогою емоційної мови, розглядалося як фактор, який впливає на те, як читачі інтерпретують контент. Деякі зазначили, що вже існують системи штучного інтелекту, які можуть оцінювати емоційний тон статей, але було висловлено застереження щодо ризику надмірного узагальнення різних типів неправдивої інформації.

Враховуючи складність визначення істини, фактчекери продовжують покладатися на людський аналіз - підхід, який також є центральним для нашої Дезінфопедії. Були дебати щодо того, чи слід сповіщати створені засоби масової інформації, коли вони публікують неправильну інформацію, а деякі виступали за більшу співпрацю між журналістами та фактчекерами, щоб забезпечити точність новин. Прозорість журналістів, коли вони роблять помилки, розглядалася як ключ до збереження суспільної довіри.

3. Шкідливі актори та іноземне втручання

Потім дискусія змістилася до ролі зловмисників у поширенні дезінформації. Виявити цих акторів і простежити походження таких загроз часто неймовірно складно. Команда DisinfoLab поділилася думками зі своїх великих досліджень на цю тему, вказавши на свої опубліковані висновки, доступні в цей звіт.

Учасників цікавив наш власний досвід у відстеженні зловмисників. Спираючись на наше тематичне дослідження, ми виділили, як російська тактика дезінформації виявилася особливо адаптивною. Наприклад, їхня стратегія на таких платформах, як TikTok, зосереджена на залученні молодшої, ліберальної аудиторії цікавим контентом, поступово впроваджуючи пропаганду після першої побудови довіри. Такий підхід до вбудовування дезінформації в наративи, які резонують з конкретною демографією, становить зростаючу загрозу, особливо на платформах з більш слабким контролем дезінформації, таких як TikTok, порівняно з іншими платформами, такими як Meta або X (раніше Twitter).

4. ШІ та критичне мислення

Ще одним важливим моментом була необхідність не сліпо покладатися на ШІ під час протидії фейковим новинам, а натомість заохочувати цікавість та розуміння того, як працюють системи ШІ.

Деякі учасники закликали до ініціатив з демістифікації ШІ та великих мовних моделей, стверджуючи, що люди часто пасивно взаємодіють з ШІ, не розуміючи його основних процесів. Вони припустили, що виховання цікавості до машинного навчання з раннього віку може допомогти зробити ці інструменти більш доступними для широкої громадськості.

Це насправді є частиною обґрунтування впровадження коміксу як освітнього інструменту в нашому проекті, що викликало дискусію про те, чи може навчання людей про роль AI у боротьбі з дезінформацією призвести до більш широкого впровадження цих інструментів за межами просто професіоналів.

Інсайти, отримані в ході цієї сесії, допоможуть сформувати наші наступні кроки. У міру просування проекту AI4Debunk ми з нетерпінням чекаємо продовження цих спільних зусиль із зацікавленими сторонами та вдосконалення наших інструментів.

Ми залишаємося відданими подальшому діалогу та інноваціям у боротьбі з дезінформацією, працюючи разом над побудовою більш поінформованого та стійкого суспільства.

Створення AI4Debunk

6 листопада 2025 року в Брюссельському прес-клубі відбувся багатосторонній круглий стіл AI4DEBUNK, який зібрав понад 20 експертів.
Не чекаючи глобальних стандартів, Україна побудувала гнучкий захист на основі штучного інтелекту, який Захід повинен вивчати, відтворювати та масштабувати.
У своїй заяві про стан Союзу в 2025 році президент фон дер Ляєн підтвердила боротьбу ЄС з дезінформацією, місію, яку ми підтримуємо в AI4Debunk більше двох років!