Фейкові відео мають настільки високий потенціал з дестабілізації, що агенція новітніх розробок Міноборони США DARPA ухвалила рішення провести конкурс, основним завданням якого буде визначення найефективніших методів розпізнавання «діпфейків», або ж «глибоких фейків» (deepfake –ред.) – відеопідробок, які зроблені настільки реалістично, що можуть викликати політичний скандал чи навіть стати причиною конфлікту. Про це повідомляє агенція новин McClatchy.
У липні 10 команд винахідників із провідних американських університетів та Європи протягом двох тижнів змагатимуться у конкурсі на розробку технологій, які дозволять відрізнити фальшиві відео від реальних.
«Фейкові відео, які іноді називають deepfakes, створюються з використанням штучного інтелекту, можуть створити враження, що певна особа перебувала в якомусь місці, де вона не була, або робила заяви, яких насправді не було. З розвитком фейкові відео можуть викликати потрясіння – як на особистому рівні, так і на рівні держав – і навіть викликати релігійні конфлікти», – наводить думку експертів видання.
«Швидкість прогресу вражає, – заявив виданню Джефф Клюне, експерт з «діпфейків». – Зараз вони мають пристойну якість, але незабаром стануть вражаючими».
Наприклад, зараз підробки можна досить легко відрізнити за відсутністю блимання очей на картинці. На це звертають увагу на Data 61 CSIRO.
#Deepfake videos, which simulate a person talking using advanced technology, have telltale weaknesses, such as a lack of blinking: https://t.co/dPW2LlDpfb pic.twitter.com/TTTtthVPgC
— Data61 (@Data61news) 17 июня 2018 г.
«Діпфейки» стають неймовірно якісними», – писало у червні технологічне видання Gizmodo.
Deepfake Videos Are Getting Impossibly Good https://t.co/6L59Y8phEe
— DEF CON (@defcon) 12 июня 2018 г.
Фейкові відео вже набувають поширення. Минулого місяця Фламандська соціалістична партія поширила фейкове відео звернення президента США Трампа до жителів Бельгії.
Trump heeft een boodschap voor alle Belgen... #Klimaatpetitie pic.twitter.com/Kf7nIaDOKj
— sp.a (@sp_a) 20 мая 2018 г.
Фейкові аудіозаписи, наприклад, створюються за допомогою збору годин записів розмови реальної особи і подальшого реміксування фонем. Якість таких підробок покращується, але їх все ще досить легко розрізнити.
«Зараз вони звучать неприродно. Але протягом 5 років аудіозаписи вже будуть здатні надурити слідчих; фейкові відео також прогресують», – розповів виданню Ґрегорі Аллен, експерт аналітичного центру Center For A New American Security з питань штучного інтелекту.
Деякі експерт твердять, що часова рамка для вдосконалення фальшивих відео навіть менша і що вже зараз творці фальшивих відео мають перевагу над дослідниками, які викривають фейки.
Конкурс організований DARPA є частиною 4-річної програми аналізу медіа, яка покликана створити інструменти визначення наявності відеоманіпуляцій та надання деталей щодо того, як було створено підробку. У змаганні беруть участь команди університетів Dartmouth, Notre Dame та Stanford Research Institute.