понеділок, 23 грудня 2024 р.

Інструмент TrueMedia допомагає журналістам виявляти дипфейки та боротися з ними



Персоналізація поширення контенту в соцмережах сприяє розширенню охоплення дезінформації та посиленню її впливу.

Зі зростанням популярності TikTok з його персоналізованими стрічками "Для вас" (нескінченним потоком контенту, який відбирається на основі інтересів користувача та даних про історію переглядів, залучення та місцеперебування) аналогічні підходи почали впроваджувати і багато інших платформ, включаючи Instagram, YouTube та X. Instagram почав показувати користувачам рекомендовані пости ще у 2018 році, а у 2020-му запустив Reels - формат коротких відео, що нагадує пости в TikTok.

Седжин Пайк, менеджер по продукту компанії TrueMedia.org, каже, що ці нововведення трансформували те, як контент споживається в соцмережах. — каже вона.

У такому цифровому середовищі хибна інформація існує поруч із перевіреним контентом, а це створює умови для розповсюдження дипфейків — створених штучно гіперреалістичних зображень чи відео, які мають на меті показати, що хтось робить або каже щось, чого насправді не було. Напередодні виборів, що відбулися в листопаді 2024 року в США, можна було побачити дипфейкові відео з промовами, які ніколи не вимовлялися, опрацьовані фото охоронців Дональда Трампа, що посміхаються після замаху, скоєного на нього в липні, і скриншот новинних статей з неправдивою інформацією про вибори.

З розвитком технологій генеративного ШІ, що стають все більш доступними та простими у використанні, визначати справжність постів, які ми бачимо в соцмережах, стає дедалі складнішим. З його допомогою можна виявляти ознаки обробки відео або зображень, опублікованих у соцмережах.


Дипфейки та дезінформація


Експерт у галузі штучного інтелекту Орен Етціоні заснував TrueMedia у січні 2024 року, тому що його непокоїло вплив ШІ-технологій у рік виборів – це некомерційна організація, до її команди входять дослідники, інженери та соціологи. проблем. Седжин Пайк називає таку роботу "соціотехнологіями".

Зі зростанням доступності цих технологій згенерований ШІ контент все частіше стає інструментом політичної маніпуляції, а пов'язані з цим побоювання журналістів лише зростають.

За словами Пайк, моделі відбору контенту, подібні до тих, що застосовуються для формування стрічки "Для вас", сприяють тому, що ретельно створена дезінформація отримує ширше охоплення. Алгоритми виділяють популярний контент, не звертаючи уваги на те, які акаунти поширюють цей контент. Інформація у стрічках користувачів зазвичай відповідає їх інтересам та переконанням і не перевіряється на правдивість — головне, щоб ці пости збирали лайки та репости.

У цих обставинах потенціал дипфейків величезний. З їхньою допомогою можна зобразити що завгодно: від фотографії тата Франциска в дизайнерському одязі до цілих випусків фейкових новин. не було поширено такий контент, журналісти кажуть, що революція використання ШІ тільки починається.

Виявлення дипфейків


Створений інструмент TrueMedia допоможе журналістам визначити, чи використовувалися ШІ для створення відео або фотографії.

Працювати з інструментом нескладно: користувачі завантажують у нього посилання на пост у соціальних медіа, і детектор перевіряє контент за допомогою низки створених партнерськими технологічними компаніями програм, які вміють виявляти ознаки використання ШІ, та визначає ймовірність таких маніпуляцій.

Пайк попереджає, що інструмент не здатний виявити всі маніпуляції з контентом. шляхи: наприклад, накладають шари дипфейків на правдивий контент, щоб оминути процес перевірки.

У перспективі з розвитком штучного інтелекту розвиватимуться й інструменти, які дозволяють виявити змінений за допомогою ШІ контент, ми будемо використовувати ШІ для їх викриття.

Співпраця з журналістами



Пайк підкреслила, що оскільки немає сумнівів у тому, що обсяг дезінформації, що поширюється в соцмережах, продовжить зростати, для боротьби з нею журналістам не варто покладатися лише на інструменти для виявлення обробленого контенту: потрібно вивчати причини та джерела дезінформації, а також розбиратися в тому, який вплив вона надає.


Наприклад, у соцмережах масово поширювалися пости про нещодавні урагани, що включають створені штучним інтелектом фейкові фотографії та відео потопів та руйнувань у США. І хоча деякі користувачі, включаючи політиків, зізнавалися, що не знають, наскільки перевірений контент, який вони поширюють, такі пости викликали в аудиторії емоційний відгук і використовувалися для хибних тверджень про те, як уряд реагує на катастрофи.


Пайк вважає, що для журналістів найважливіше намагатися розібратися, чому пости, що містять неточну інформацію, стають популярними і протидіяти цим наративам, не обмежуючись лише перевіркою справжності зображень.


"Недостатньо просто говорити, що ви щось виявили, - сказала вона. - Журналісти можуть інформувати та навчати громадськість. І ми повинні це робити". 
Phineas Hogan.


Немає коментарів: