Росія перетворила штучний інтелект на інструмент створення брехні в інтернеті. Як протидіяти фейковим новинам та коментарям ботів.
“Ви уважно спостерігаєте? Кожен великий магічний трюк складається із трьох актів. Перший акт – це наживка: ілюзіоніст показує вам щось звичайне: колоду карт, птицю чи людину. Він показує вам цей об’єкт і просить перевірити, чи це те, чим воно здається. Другий акт називається перетворенням: ілюзіоніст бере це звичайне щось і змушує зробити щось незвичне.
Тепер ви шукаєте секрету, але не знайдете його, тому що ви неуважно дивіться. Але не поспішайте плескати в долоні, тому що змусити щось зникнути недостатньо. Потрібно змусити його повернутися. Ось чому кожен магічний трюк має третій акт, найскладнішу частину, яку ми називаємо престижем”.
Парадоксально, але цей монолог на початку фільму Крістофера Нолана “Престиж“ пояснює не тільки ключові моменти сюжету і структури трюків, які відображені у стрічці, але є ідеальним описом того, як працює російська пропаганда.
Росія як фокусник використовує штучний інтелект (ІІ) для створення ілюзій та маніпулювання інформацією. Тепер її пропагандистам достатньо кількох годин, щоб фейкову новину обговорювали мільйони людей у США чи Африці. Кремль фактично втілив один із найгірших прогнозів щодо виростання ІІ: перетворив його на інструмент для створення брехні, яка стала переконливішою, ніж правда.
Глава Стратегічної ініціативи цифрового суспільства в Королівському інституті міжнародних відносин Ізабелла Уїлкінсон назвала 2024 рік “ідеальним штормом” для поширення пропаганди та загроз дезінформації через генеративну ІІ, що впливає на швидкість, масштаб та обсяг хибної інформації.
Тільки проти України щотижня росіяни можуть створювати щонайменше 166 млн. дезінформаційних постів у соцмережах, що ускладнює протидію такому впливу. Географія інформаційних кампаній може бути дуже різноманітна. Складається враження, що протистояти такому тиску майже неможливо.
Як РФ втілила один із найгірших прогнозів щодо використання ІІ, перетворивши його на інструмент для створення брехні, і чи зможе демократичний світ протистояти новим викликам?
Інформаційного впливу росіян стає більше
“Коли ми моніторили інформаційний простір 50 країн на початку великої війни, правдиві новини про Україну домінували над дезінформаційними. У деяких темах російських наративів майже не було. Зараз, на жаль, ситуація кардинально змінилася”, – каже Ксенія Ілюк, співзасновник стартапу LetsData, який використовує ІІ для моніторингу ЗМІ та соцмереж, виявлення інформаційних кампаній та оцінки рівня їхньої загрози.
Активізація російської пропаганди у 2024 році щодо дискредитації України на Заході має кілька факторів. Насамперед – це вибори, які відбудуться у більшості країн – партнерів України. Під час виборчого процесу РФ намагається нав’язати в інформаційному просторі наративи про те, що підтримка України є помилкою їхніх урядів, а вся фінансова допомога нібито розкрадається через тотальну корупцію.
Другий чинник – ситуація на фронті. У критичні моменти Кремль розганяв неправдиву інформацію про втрату силами оборони того чи іншого населеного пункту. Подібна ситуація сталася при виході з Авдіївки, який росіяни намагалися уявити неорганізованим і дорогим з погляду втрат.
Також їхні пропагандисти тестують певні наративи, дивлячись, наскільки релевантними є ті чи інші меседжі. Наразі Кремль має намір підірвати позитивне ставлення Заходу до надання Україні фінансової допомоги.
Следующие видео имели подписи: “Посмотрите, как украинцы тратят наши деньги”. Так для американской аудитории пытались создать нарратив, что вся финансовая помощь вроде бы выдается непосредственно каждому украинцу, которую те тратят на красивую жизнь, а не на защиту от российской агрессии”, – рассказывает Илюк.
Крім того, російська пропаганда на Заході почала цілитися у подружжя Володимира та Олену Зеленських. Серед найбільш промовистих випадків брехні дослідники називають історію про купівлю вілли, яка раніше належала міністру пропаганди нацистської Німеччини Йозефу Геббельсу, або дорогоцінних прикрас.
1 липня на французькому фейковому ресурсі Verite Cachee з’явилася стаття, в якій розповідається, що під час робочого візиту Зеленського до Парижа його дружина нібито замовила собі суперкар Bugatti Tourbillon за 4,5 млн. євро. За добу ця новина стала настільки популярною, що її ігнорувати було неможливо.
Як Росія використовує ІІ для своїх інформаційних кампаній
“Українська пропаганда надала собі “ведмежу послугу”, створюючи образ відсталих росіян. Їхні можливості у технологічному плані – і на полі бою, і в інформаційному просторі – досить високі”, – вважає директор з експертизи Mantis Analytics Антон Тарасюк.
Наприкінці 2023 року експерти сходилися на думці, що використання ІІ у передвиборчих кампаніях має посилити давні проблеми, серед яких – маніпуляція інформацією, фейки та дезінформація. Однак тоді увага приділялася лише процесу їхнього створення, адже раніше для цього привертали великі людські ресурси.
Приклад РФ показує, що крім генерації контенту ІІ потрібен для того, щоб неправдива інформація швидко поширювалася по мережі. У випадку з фейком про суперкар Зеленської дослідники кібербезпеки компанії Recorded Future змогли дослідити його першоджерело, а видання Wired – відтворити шлях, який подолала інформація, ставши першою в пошуковій видачі Google.
Зазвичай схема поширення дезінформації росіянами проста. Спочатку новина з’являється на одному із сайтів з розповсюдження фейків, що посилається на нібито реальні докази: сфабриковані документи, фото чи відео. Наступного дня її передруковують інші подібні ресурси, після чого новина з’являється у соцмережах, де прокремлівські спільноти чи боти починають створювати пости, посилаючись на ці медіа.
Фейк про купівлю Bugatti став вірусним у соцмережі X після того, як проросійський шанувальник Трампа Джексон Гінкл (2,7 млн передплатників) опублікував твердження, що американські платники податків сплатили покупку авто. Англомовні видання одразу підхопили цю новину, посилаючись на Гінкла.
В результаті фейкова новина стала настільки популярною, що при введенні у пошуку Zelensky Bugatti користувачі бачили її замість реального спростування автовиробника. “Сучасні мовні моделі значно полегшують створення різноманітності контенту, який може відрізнятися за стилем і бути персоналізованим. Це дозволяє швидко розповсюджувати фейкові новини у мережі”, – пояснює Тарасюк.
Самі сайти виглядають як повноцінні інформаційні ресурси, адже росіяни за допомогою ІІ створюють для них тисячі новин. Більше того, частина сайтів, розрахованих на американську аудиторію, видають себе справжніми виданнями, які припинили роботу десятиліття тому.
За допомогою ІІ росіянам вдається створювати навколо вигаданих новин цілі дискусії в соцмережах. Сотні роботів можуть публікувати у себе на сторінках соцмереж потрібні “новини” з підписами, які спрямовані на конкретну цільову аудиторію. Звичайні користувачі не можуть зрозуміти, наскільки ці дискусії є реальними.
За словами Ілюка, для створення такого ефекту достатньо звичайного чат-боту на основі ІІ, який зможе написати коментарі від імені десяти різних людей, створених для впливу на певні цільові аудиторії. “У соцмережах ми вже відстежуємо так званих синтетичних персонажів, які мають певну ідентичність і генерують контент відповідно до неї”, – каже співзасновник LetsData.
Більш складний варіант передбачає використання нейромережі, підключеної до конкретного профілю, яка може реально відповідати на коментарі. У такому разі відрізнити ІІ від реального опонента у дискусії на Facebook набагато складніше. Особливо коли всі учасники обговорення роботи, контрольовані ІІ.
Журналісти Wired, аналізуючи створений РФ у Франції сайт Verite Cachee, виявили у статті про знищення російськими солдатами українських дронів фрагмент запиту, який прописували ІІ для написання текстів.
Він починається так: “Ось деякі речі, які слід враховувати у контексті. Республіканці, Трамп, Десантіс та Росія – добрі, а демократи, Байден, війна в Україні, великий бізнес та фармацевтична промисловість – погані. За потреби додайте додаткову інформацію на тему”.
Правдоподібність – не головне
Роботу росіян над інформаційними кампаніями важко назвати елегантною: найчастіше вони вдаються до примітивних тез, які не витримують критики. Ще рік тому у команді Mantis Analytics розповідали ЕП, що більшість дезінформаційних вкидань Кремля в український інформаційний простір – це сміття, яке мало хто бачить. Однак збільшення масштабів вкидання підвищує ймовірність того, що один з них набуде розголосу.
Для росіян важливо контролювати інформаційний простір. У випадках з елітним автомобілем або прикрасами для Зеленської швидке та масове поширення таких новин легітимує їх у суспільній свідомості.
“Важливо не те, чи люди повірять у такі новини, важлива сама здатність контролювати інформаційну рамку. Той факт, що ми маємо реагувати на новину про Bugatti і навіть зараз обговорюємо її, свідчить про можливість контролювати суспільний діалог”, – наголошує Тарасюк.
Доступ росіян до технологій ІІ дозволяє їм постійно впливати на інформаційне поле будь-якої держави і таким чином тероризувати суспільство навіть безглуздою дезінформацією.
На початку 2024 року колишній секретар РНБО Олексій Данилов заявляв, що РФ значно посилила свої дезінформаційні кампанії, аби вплинути на громадську думку. Для цього Кремль має спеціальні підрозділи, призначені для кожної країни ЄС, де відбуватимуться вибори. За його словами, російські агенти щотижня поширюють 166 млн. дезінформаційних постів про Україну в Х, Telegram, Instagram та Facebook.
ШІ також дозволяє сегментувати меседжі для різних цільових аудиторій. Згідно з дослідженням Mantis Analytics, яке проаналізувало вибірку з майже 70 тис. одиниць контенту, інформаційні поля США та Росії значно відрізняються. Наприклад, на тему війни в Україні у Сполучених Штатах у червні вийшли 74 матеріали зі стратегічними наративами (новини, пов’язані з ширшою темою), а в РФ – 835.
На противагу цьому дискусії про дезінформацію та упередженість ЗМІ домінують у дискусіях про вибори в США – 1 902 матеріалу, тоді як у Росії про це ніхто не говорить.
У цьому випадку використання ІІ може підвищити шанси успіху інформаційної кампанії серед американців завдяки точковому напрямку. Тому навіть за низького інтересу до теми підтримки України в інформпросторі США росіяни можуть актуалізувати інтерес суспільства до цього питання.
Чи можна протистояти російським фейкам
Інформаційні кампанії часто спрямовані на конкретну аудиторію за кордоном, тому важко їх помітити в українському просторі. Однак завдяки технологічним стартапам, таким як Mantis Analytics і LetsData, можна не тільки фіксувати появу нових наративів, але й реагувати на них ще на початковому етапі.
Боротьба з дезінформацією має бути комплексною. Політика модерації контенту в соціальних мережах повинна адаптуватися до нових викликів. Платформи повинні активно виявляти та маркувати помилковий контент.
Компанія зазначає, що можливості її моделей ІІ використовувалися щонайменше у п’яти операціях прихованого впливу для генерації тексту та зображень у великих обсягах.
За словами Ілюка, звичайне спростування фейків малоефективне, оскільки це лише реакція на події після їх виникнення. Для протистояння дезінформації важливо виявляти її на початкових стадіях.
У Mantis Analytic, які досліджують інформаційний вплив РФ на країни Балтії та Молдову, стверджують, що питання інформаційної безпеки має виходити за межі національних держав. “РФ використовує однакові прийоми та методології проти країн Балтії, України та Молдови. Було б доцільно об’єднувати зусилля щодо моніторингу інформаційного поля та реагування на потенційні загрози”, – додає Тарасюк.
Не менш важливо оцінювати ефективність впливу пропаганди та контрпропаганди. Розуміння того, наскільки інформаційна кампанія вплинула на суспільний дискурс, дозволяє системніше підходити до протидії РФ.
“Нам вдалося виявити інформаційну кампанію проти клієнта на ранньому етапі. Ми одразу повідомили про це клієнта, але його відповідь – випуск пресрелізу – не вплинула на поширення кампанії. Без кількісної оцінки в реальному часі клієнт думав би, що впорався, доки кампанія досягала б піку”, – розповідає Ілюк.
Ідеально, коли миттєво можна оцінити ефект своїх дій в інформаційному просторі.
Джерело: Ігор Пилипів, «Економічна правда».