Протягом останніх років чимало уваги було зосереджено на небезпеці «фейкових новин» та дезінформації. За версією словника Dictionary.com, словом 2018 року стало «misinformation», тобто неправдива інформація. Попереду світ очікує новий виклик – так звані «діпфейки», які змусять людей буквально сумніватися в усьому, що вони бачать.
11 грудня цього року в російському місті Ярославль відкрився форум «ПроекториЯ». Телеканал «Россия-24» показав кадри із роботом Борисом на сцені, який вміє ходити й говорити.
Автор репортажу констатував, що робота «вже навчили» танцювати, при чому «досить непогано». Зрештою Борис виявився простою людиною, перевдягненою в костюм.
Коли в інтернеті почали кепкувати з «підставного» робота, телеканал «Россия-24» видалив сюжет з YouTube-каналу, а потім пояснив, що це просто непорозуміння, яке сталося через «художній оборот».
«Я був точно переконаний, що за аналогією із дідом морозом всі цілком точно впізнають аніматора в костюмі», – пояснив автор сюжету.
Незалежно від того, якими саме були мотивації кореспондентів, здогадатися, що сучасний робот – перевдягнена людина, пильним глядачам виявилося не так складно.
Але через кілька років на будь-які подібні сумніви доведеться витратити набагато більше часу.
Слово 2018 року
Англомовний онлайн-словник Dictionary.com визначив словом 2018 року «неправдиву інформацію» (misinformation).
«Нестримне розповсюдження неправдивої інформації ставить нові виклики для орієнтування у житті в 2018 році», – йдеться на сайті словника.
Неправдиву інформацію, при цьому, не слід плутати із дезінформацією, «фейковими новинами» чи, наприклад, «діпфейками».
Але в чому різниця? В намірах поширення.
Неправдива інформація
Неправдива інформація – та, в яку вірять люди, які її поширюють.
«Це помилкові відомості, які поширюють, незалежно від того, чи є намір ввести в оману», – уточнює словник.
Дезінформація
Дезінформація – це «навмисне введення в оману або упереджена інформація, маніпулювання розповіддю або фактами, пропаганда», – пояснює словник.
Якщо політик стратегічно поширює інформацію, яка не є правдивою, і політик про це добре знає, у вигляді публікацій в ЗМІ, фотографій тощо, це дезінформація.
Але коли людина бачить цю дезінформацію і вірить їй, та ще й починає поширювати – це стає неправдивою інформацією, пояснює видання The Washington Post.
Наступний рівень – «діпфейк»
Якщо, здавалося б, словом «дезінформація» здивувати когось у 2018 році буде складно, і навіть, якщо люди довірятимуть лише тому, що побачили на власні очі – тут новини теж невтішні. Адже неминуча поява так званих «діпфейків» змусить сумніватися буквально в усьому, що людина бачить на екранах.
Якщо, наприклад, людина на відео побачить, як президент якоїсь держави виступає із закликом до ядерної війни – при цьому він виглядатиме цілком реалістично – в це, ймовірно, повірять.
«Діпфейк» – надзвичайно реалістичні маніпуляції аудіо та відео-матеріалами. Слово складається із двох англійських слів: «deep» – глибокий та «fake» – фальшивка».
Іншими словами, «діпфейк» – керований штучним інтелектом механізм заміщення обличчя людини на відео обличчям іншої людини шляхом машинного навчання – таке визначення пропонує один із онлайн-словників.
Приклад 1: Обама називає Трампа «засранцем»
А в 2018 році американський режисер Джордан Піл та видання BuzzFeed опублікували начебто відеозвернення колишнього президента США Барака Обами, в якому він називає Дональда Трампа «засранцем».
Насправді Обама нічого такого не казав. Ролик створили за допомогою програми Fakeapp і графічного редактора Adobe After Effects. Журналісти і режисер мали намір показати, який вигляд у майбутньому будуть мати «фейкові» новини.
Приклад 2: Штучний телеведучий
А ось, наприклад, державне інформаційне агентство Китаю «Сіньхуа» нещодавно представило нового, цифрового, члена своєї редакції – телеведучого, який працює на основі штучного інтелекту.
Він не є прикладом «діпфейку», але демонструє, як реалістично може виглядати «цифрова» людина, якій «вклали слова в уста».
«Я працюватиму невтомно і продовжуватиму інформувати вас про останні події – тексти завантажуються в систему, що керує мною, безперервно», – говорить віртуальний журналіст.
Оглядач видання Futurism, щоправда, зауважує: «Поки що англомовна версія телеведучого залишає бажати кращого… цей конкретний приклад нікого не зможе надурити».
Але це – лише початок. З часом такі технології можуть дозволити будь-кому створювати відеоролики про реальних людей, де вони казатимуть те, чого ніколи не казали, повідомляло раніше агентство Associated Press.
Цей високотехнологічний спосіб «вкладати слова в чиїсь уста» стане найсучаснішою зброєю в умовах інформаційних воєн, переконані експерти.
Є й плюси
З одного боку «діпфейки» можуть бути корисним інструментом, наприклад, для навчання: якась історична фігура може розповідати дітям про своє життя. Але на політичній арені застосування «діпфейків» буде дійсно «лякаючим» явищем, йдеться в статті Foreign Affairs.
Адже будь-чому можна буде навести «реальні докази»: будь то виступ світового лідера, міжнародної організації, акти насилля тощо.
Кровотік соцмереж
Соціальні мережі, як і з «фейковими новинами», стануть родючим ґрунтом для циркуляції таких «діпфейків», що матиме потенційно небезпечні наслідки для політики. «Спроба Росії вплинути на американські президентські вибори 2016 року через поширення суперечливих та політично запальних повідомлень на Facebook і Twitter, вже продемонстрували, як легко можна ввести дезінформацію у кровотік соціальних мереж. «Діпфейки» завтрашнього дня будуть більш яскравими та реалістичними, а значить, ними більше ділитимуться, ніж «фейковими новинами 2016 року», – зауважує автор.
«Діпфейки» зможуть використовувати і недержавні гравці, серед яких і терористичні угруповання, метою яких може бути, наприклад, провокація.
І ще одна проблема
Ще одна проблема в тому, що люди з часом знатимуть про існування «діпфейків», і чиновникам, які вчинили якесь правопорушення, буде легко послатися на те, що це чергова підробка. Ба більше, люди перестануть вірити справжнім записам і менше довірятимуть новинним агенціям.
Самим журналістам теж буде набагато складніше орієнтуватися у тому, що є справжнім матеріалом, а що «діпфейком», зауважує автор.
І хоча й технології для створення «діпфейків» розвиваються досить швидко, також з’являються і ресурси, що мають на меті їх виявляти.
«Але, хоча й «діпфейки» небезпечні, вони не обов’язково матимуть катастрофічні наслідки. Покращиться система їх виявлення, прокурори та позивачі іноді отримуватимуть юридичні перемоги проти творців шкідливих підробок, а основні платформи соцмереж поступово стануть кращими у виявленні та видаленні шахрайського змісту», – зауважує автор.