На 5 септември Pilot4DEV беше домакин на среща с участието на множество заинтересовани страни в пресклуба в Брюксел, на която се събраха водещи експерти, изследователи и практикуващи специалисти, за да обменят знания, да обсъдят стратегии за борба с фалшивите новини и да проучат как могат да бъдат разработени инструменти с ИИ за ефективно справяне с тези предизвикателства.
На събитието проектът AI4Debunk заедно с първоначалните констатации от текущото ни онлайн проучване ( ⁇английски, ⁇френски, ⁇немски, ⁇норвежки, ⁇гръцки, ⁇латвийски, ⁇украински) бяха представени. Това постави началото на оживена кръгла маса, чиито основни акценти са описани подробно по-долу.
1. Проектиране на инструменти за проекти
Дискусията не само подчерта обществените аспекти на дезинформацията, но и разгледа индивидуалните психологически фактори, които правят човек уязвим за манипулирана информация онлайн. Беше предложено тези психологически елементи да бъдат взети предвид при разработването на инструментите за ИИ на проекта, насочени към борба с дезинформацията.
Участниците изразиха интерес към дизайна на инструментите, като поставиха под въпрос избора на четирите специфични интерфейса — Web plug-in, Disinfopedia, App и AR/VR — и как те съответстват на целите на проекта. Бяха изразени опасения относно гарантирането, че инструментите са достъпни за широката общественост, особено за тези, които биха могли да се възползват в най-голяма степен от тях, като например възрастни хора или лица с по-малко технически познания. Въпреки че имаше известен скептицизъм по отношение на това дали тези групи лесно ще приемат приложения или AR / VR системи, общият консенсус беше, че инструментите, особено приложението, трябва да бъдат лесни за ползване.
Основен акцент на дискусията беше поставен върху изграждането на доверие като надежден източник, който участниците определиха като решаващ за насърчаване на широкото използване на инструментите. Няколко заинтересовани страни признаха предизвикателството, свързано с изграждането на доверие, дори за признатите проверители на факти. По-специално за уязвимите лица се счита, че е по-малко вероятно да се доверят на инструменти за проверка на фактите, основани на ИИ, докато по-информираните потребители може да са склонни да експериментират с тях.
2. Дезинформация срещу дезинформация
Участниците също така попитаха за нашите определения за „дезинформация“ и „дезинформация“. Това доведе до по-широка дискусия относно понятието „фалшиви новини“ и различните му нюанси: съществува невярна информация в спектър, вариращ от непреднамерена невярна информация до умишлена дезинформация.
Начинът, по който се оформя информацията, особено чрез използването на емоционален език, се разглежда като фактор, който влияе върху начина, по който читателите интерпретират съдържанието. Някои отбелязаха, че вече има системи с ИИ, които могат да оценят емоционалния тон на статиите, но все пак беше изразена предпазливост относно риска от свръхобобщаване на различни видове невярна информация.
Като се има предвид сложността на определянето на истината, проверителите на факти продължават да разчитат на човешки анализ — подход, който също е от основно значение за нашата Disinfopedia. Имаше дебат дали установените медии трябва да бъдат уведомявани, когато публикуват невярна информация, като някои се застъпваха за по-голямо сътрудничество между журналистите и проверителите на факти, за да се гарантира точността на новините. Прозрачността от страна на журналистите, когато правят грешки, се разглежда като ключов фактор за поддържане на общественото доверие.
3. Злонамерени участници и външна намеса
След това дискусията премина към ролята на злонамерените участници в разпространението на дезинформация. Идентифицирането на тези участници и проследяването на произхода на такива заплахи често е невероятно трудно. Екипът на DisinfoLab сподели прозрения от обширните си изследвания по тази тема, като посочи публикуваните си констатации, достъпни в този доклад.
Участниците бяха любопитни за нашия собствен опит в проследяването на злонамерени участници. Въз основа на нашия казус подчертахме как руските тактики за дезинформация се оказаха особено адаптивни. Например, тяхната стратегия за платформи като TikTok се фокусира върху привличането на по-млади, либерални аудитории с ангажиращо съдържание, постепенно въвеждане на пропаганда след първото изграждане на доверие. Този подход на включване на дезинформацията в послания, които резонират със специфични демографски характеристики, представлява нарастваща заплаха, особено на платформи с по-слаб контрол върху дезинформацията, като TikTok, в сравнение с други платформи, като Meta или X (преди Twitter).
4. ИИ и критичното мислене
Друг важен въпрос, който беше повдигнат, беше необходимостта да се избягва сляпото разчитане на ИИ при противодействието на фалшивите новини и вместо това да се насърчава любопитството и разбирането за това как работят системите с ИИ.
Някои участници призоваха за инициативи за „демистифициране на ИИ“ и големи езикови модели, като заявиха, че хората често се ангажират пасивно с ИИ, без да разбират основните му процеси. Те предполагат, че насърчаването на любопитството към машинното самообучение от ранна възраст може да помогне тези инструменти да станат по-достъпни за широката общественост.
Това всъщност е част от обосновката за въвеждането на комикс като образователен инструмент в нашия проект, което предизвика дискусия относно това дали образоването на хората относно ролята на ИИ в борбата с дезинформацията би могло да доведе до по-широко възприемане на тези инструменти извън рамките само на професионалистите.
Прозренията, получени от тази сесия, ще помогнат за оформянето на следващите ни стъпки. С напредването на проекта AI4Debunk очакваме да продължим тези съвместни усилия със заинтересованите страни и да усъвършенстваме нашите инструменти.
Оставаме ангажирани с насърчаването на по-нататъшен диалог и иновации в борбата с дезинформацията, като работим заедно за изграждането на по-информирано и устойчиво общество.




