Совещание с участием многих заинтересованных сторон

Мероприятие с участием многих заинтересованных сторон в Брюсселе

5 сентября Pilot4DEV провел встречу с участием многих заинтересованных сторон в пресс-клубе в Брюсселе, собрав ведущих экспертов, исследователей и практиков для обмена знаниями, обсуждения стратегий борьбы с фейковыми новостями и изучения того, как инструменты ИИ могут быть разработаны для эффективного решения этих проблем.

На мероприятии проект AI4Debunk вместе с первоначальными результатами нашего продолжающегося онлайн-опроса ( ⁇Английский язык на английском языке, ⁇ включительноКатегория: Французский язык, ⁇ включительноКатегория: Немецкий язык, ⁇ включительноНорвежский язык (фильм, ⁇ включительноКатегория: Греческий язык, ⁇ включительноКатегория: Латвийская, ⁇ включительноКатегория: Украинский язык) были представлены. Это заложило основу для оживленного круглого стола, основные моменты которого подробно описаны ниже.

1. Проектирование инструментов

Дискуссия не только подчеркнула социальные аспекты дезинформации, но и рассмотрела индивидуальные психологические факторы, которые делают кого-то уязвимым для манипулирования информацией в Интернете. Было предложено учитывать эти психологические элементы при разработке инструментов ИИ, направленных на борьбу с дезинформацией.

Участники выразили интерес к дизайну инструментов, поставив под сомнение выбор четырех конкретных интерфейсов ⁇ Web plug-in, Disinfopedia, App и AR / VR ⁇ и то, как они соответствуют целям проекта ⁇ . Были высказаны опасения по поводу обеспечения доступности инструментов для широкой общественности, особенно для тех, кто может извлечь из них наибольшую выгоду, таких как пожилые или менее технически подкованные люди. Хотя был некоторый скептицизм относительно того, будут ли эти группы с готовностью принимать приложения или системы AR / VR, общий консенсус заключался в том, что инструменты, особенно приложение, должны быть удобными для пользователя.

Основное внимание в ходе обсуждения было уделено укреплению доверия как надежного источника, что, по мнению участников, имеет решающее значение для поощрения широкого использования этих инструментов. Несколько заинтересованных сторон признали проблему установления доверия даже для признанных специалистов по проверке фактов. Уязвимые люди, в частности, менее склонны доверять инструментам проверки фактов, управляемым ИИ, в то время как более информированные пользователи могут быть готовы экспериментировать с ними.  

2. Дезинформация против дезинформации

Участники также поинтересовались нашими определениями ⁇ disinformation ⁇ и ⁇ misinformation ⁇ . Это привело к более широкому обсуждению концепции фейковых новостей и ее различных оттенков: Ложная информация существует в диапазоне от непреднамеренной дезинформации до преднамеренной дезинформации.

То, как информация формируется, особенно с помощью эмоционального языка, рассматривалось как фактор, влияющий на то, как читатели интерпретируют контент. Некоторые отметили, что уже существуют системы ИИ, которые могут оценивать эмоциональный тон статей, но была выражена осторожность в отношении риска чрезмерного обобщения различных типов ложной информации.

Учитывая сложность определения истины, проверяющие факты продолжают полагаться на человеческий анализ - подход, который также занимает центральное место в нашей дезинфопедии. Обсуждался вопрос о том, следует ли уведомлять установленные средства массовой информации, когда они публикуют неверную информацию, при этом некоторые выступали за расширение сотрудничества между журналистами и проверяющими фактами для обеспечения точности новостей. Прозрачность журналистов, когда они совершают ошибки, рассматривалась как ключ к поддержанию общественного доверия.

3. Вредоносные субъекты и иностранное вмешательство

Затем дискуссия сместилась в сторону роли злонамеренных субъектов в распространении дезинформации. Выявление этих субъектов и отслеживание истоков таких угроз часто невероятно сложно. Команда DisinfoLab поделилась идеями из своих обширных исследований по этой теме, указав на свои опубликованные результаты, доступные в В этом докладе.

Участникам было любопытно узнать о нашем собственном опыте отслеживания злоумышленников. Основываясь на нашем тематическом исследовании, мы подчеркнули, что российская тактика дезинформации оказалась особенно адаптивной. Например, их стратегия на таких платформах, как TikTok, фокусируется на привлечении молодой либеральной аудитории интересным контентом, постепенно внедряя пропаганду после первого укрепления доверия. Такой подход к внедрению дезинформации в нарративы, которые резонируют с конкретной демографией, представляет собой растущую угрозу, особенно на платформах с более слабым контролем за дезинформацией, таких как TikTok, по сравнению с другими платформами, такими как Meta или X (ранее Twitter).

4. ИИ и критическое мышление

Еще одним важным моментом была необходимость избегать слепой зависимости от ИИ при противодействии фейковым новостям и вместо этого поощрять любопытство и понимание того, как работают системы ИИ.

Некоторые участники призвали к инициативам по де-мистификации ИИ и больших языковых моделей, утверждая, что люди часто пассивно взаимодействуют с ИИ, не понимая его основных процессов. Они предположили, что стимулирование любопытства к машинному обучению с раннего возраста может помочь сделать эти инструменты более доступными для широкой общественности.

Это на самом деле является частью обоснования введения комиксов в качестве образовательного инструмента в нашем проекте, что вызвало дискуссию о том, может ли просвещение людей о роли ИИ в борьбе с дезинформацией привести к более широкому внедрению этих инструментов за пределами только профессионалов.

Понимание, полученное в ходе этой сессии, поможет сформировать наши дальнейшие шаги. По мере продвижения проекта AI4Debunk мы с нетерпением ждем продолжения этих совместных усилий с заинтересованными сторонами и совершенствования наших инструментов».

Мы по-прежнему привержены дальнейшему диалогу и инновациям в борьбе с дезинформацией, работая вместе над созданием более информированного и устойчивого общества.

Больше от AI4Debunk

6 ноября 2025 года в Брюссельском пресс-клубе состоялся многосторонний круглый стол AI4DEBUNK, в котором приняли участие более 20 экспертов.
Не дожидаясь глобальных стандартов, Украина построила гибкую оборону на основе искусственного интеллекта, которую Запад должен изучить, воспроизвести и масштабировать.
В своем Положении о Союзе 2025 года президент фон дер Ляйен подтвердила борьбу ЕС с дезинформацией, миссию, которую мы поддерживаем в AI4Debunk более двух лет!