Уявіть, що бачите в телевізорі провідного політика, який робить якісь заяви. Ви бачите його, ви чуєте його – а отже, це правда. Такий підхід до сприйняття інформації можуть вже дуже скоро змінити так звані «діпфейки». Ви так само бачитимете політика, який робить заяви. Але це може бути не він, а його відтворена відеоверсія. Мова йде про «діпфейки» – наступне покоління «фейкових новин».
Тепер відредагувати промову людини на відео так само легко, як і редагувати текст: копіювати, вирізати, додавати чи видаляти слова з вуст людини прямо у відео дозволяє новий алгоритм, розроблений інженерами зі Стенфорда, Прінстона, Університету інформатики імені Макса Планка та компанії Adobe. Про це повідомляє новинний портал Стенфордського університету.
Добрі новини?
Для сфери кіноіндустрії, наприклад, це суттєвий прогрес – адже якщо актор помилиться або його фразу треба замінити, тепер не треба витрачати ресурси і перезнімати все. Все, що потрібно, – замінити сценарій, і алгоритм сам зробить всю необхідну роботу.
«У телебаченні і кіно актори часто допускають помилки в інакше бездоганних виступах. В інших випадках вони забувають критичне слово. Для редакторів єдиним рішенням є прийняття недоліків або виправлення їх дорогим повторним фільмуванням», – пишуть на сайті.
Який саме вигляд має така підміна одних слів на інші, демонструє вчений зі Стенфорда Огад Фрід у відео:
Не все так добре
«На жаль, такі технології завжди приваблюватимуть поганих людей», – каже Фрід. Мова йде про небезпеку легкого створення так званих «діпфейків», про загрозу яких говорять уже не один рік.
«Ви думали, що «фейкові новини» – це погано? Правду поховають «діпфейки» – з таким заголовком минулого року вийшла стаття на тему нового покоління фейкових новин у британському виданні The Guardian.
«Діпфейки» ще не встигли призвести до якихось проблем, але вже привернули до себе чимало уваги. Це надзвичайно реалістичні відео- чи аудіозаписи, створені за допомогою штучного інтелекту, на яких хтось нібито говорить те, що йому «поклали до уст». Слово складається із двох англійських слів: «deep» – глибокий і «fake» – фальшивка.
Якщо кожен охочий зможе вкладати будь-які слова до вуст будь-якого політика, це може мати непередбачувані наслідки. Але Фрід вважає, що ризики все ж варті того. Адже поява програми Photoshop свого часу пройшла через такі самі занепокоєння, та зрештою люди все одно хочуть жити у світі, в якому існує програма для редагування фотографій, цитує професора новинний портал Стенфордського університету.
«Фейковий» Цукерберґ
Нещодавно в соціальній мережі «Інстаґрам» з’явилося відео, на якому засновник соціальної мережі Facebook Марк Цукерберґ говорить речі, яких ніколи насправді не казав.
Як повідомляють ЗМІ, «діпфейк» створили художники Білл Постерз і Даніел Гоу в партнерстві з рекламною компанією Canny.
Цукерберґ на відео сидить за столом і зловісно, як вважають ЗМІ, висловлюється про могутність фейсбуку:
«Уявіть на секунду: одна людина має повний контроль над мільярдами вкрадених даних людей, всіма їхніми таємницями, їхнім життям, їхнім майбутнім, – говорить «діпфейк» Цукерберґа у відео. – Я зобов’язаний всім Spectre. Spectre показав мені, що той, хто контролює дані, контролює майбутнє», – лунає з вуст засновника Facebook.
Canny вже створили кілька «діпфейків». Як частину виставки з назвою Spectre («привид») у Британії, у співпраці з Постерзом вони також мають «діпфейк» акторки Кім Кардаш’ян і американського президента Дональда Трампа, мовиться у статті видання Vice.
Реальна ж версія цього відео з Цукерберґом з’явилася у 2017 році. В ній він говорить про втручання Росії в американські вибори за допомогою фейсбуку. Створили відео за допомогою технології заміни діалогу CannyAI (VDR), мовиться у статті.
У компанії «Фейсбук» прокоментували, що «фейкове» відео з Цукерберґом не порушує її правил, мовиться у статті в британському виданні The Guardian. «Ми будемо ставитися до цього контенту так само, як ставимося до будь-якої оманливої інформації в інстаґрамі, – сказала речниця соцмережі, – якщо треті особи-фактчекери помітять його як неправдиве, ми профільтруємо його з рекомендацій інстаґраму, щоб воно не з’являлося в рекомендаціях і сторінках із хештегами».
Небезпека у перспективі
Якісні «діпфейки» потроху стає складніше виявити неозброєним оком. Технологію можуть використовувати для сприяння насильству, саботування виборів, шантажу чи будь-яких інших провокацій. Люди з поширенням «діпфейків» можуть втратити довіру і до реальних відео.
З іншого боку, у «діпфейків» є і позитивні сторони, кажуть експерти. Наприклад, історію у школі дітям може розповідати не вчитель, а сам Богдан Хмельницький із екранів моніторів – і при цьому взаємодіяти з аудиторією. Це сприятиме підвищенню інтересу дітей до навчання.
Неурядова організація ALS Association у співпраці з компанією Lyrebird хочуть використовувати технологію копіювання голосів, яку застосовують для створення «діпфейків», щоб допомогти людям, хворим на бічний аміотрофічний склероз – це допоможе відтворити їхні голоси, мовиться у статті Carnegie Endowment for Peace.
Тим не менш, із метою зниження потенційних ризиків різні країни й міждержавні об’єднання вже потрохи починають висловлювати своє занепокоєння. В ЄС, наприклад, займаються розробкою стратегії щодо дезінформації, яка також включає конкретні рекомендації для захисту від «діпфейків». Вони закликають до створення мережі перевірки фактів, які допомагали б виявляти джерела поширення контенту, пише Carnegie Endowment for Peace.
У Вашингтоні тим часом закликають вивчити потенційне використання «діпфейків» проти інтересів США іноземними дійовими особами, мовиться у статті.
Потрохи з’являються і ресурси, що мають на меті виявляти «діпфейки».
А поки найважливіше завдання для людей – бути пильними і не довіряти одразу всьому, що вони бачать в інтернеті, радять експерти. Фрід радить глядачам бути скептичними й уважними, адже, окрім «діпфейків», сьогодні і так вже існує чимало методів маніпулювати відеосюжетами. Найважливіше, на його думку, – підвищувати обізнаність громадськості і навчати її про можливі форми маніпуляцій, щоб вони були краще підготовленими до виявлення штучного контенту.