Здається, від автоматизації не застрахована жодна професія – в тому числі й телеведучі. Китайське новинне агентство «Сіньхуа» представило свого нового співробітника, яким керує штучний інтелект. Він говорить, рухається та поводить себе як справжній. На перший погляд, нічого поганого. Але проблема в тому, що в умовах інформаційних воєн це може стати новим небезпечним способом «вкладати слова в чиїсь уста».
Державне інформаційне агентство Китаю «Сіньхуа» цього тижня представило нового, щоправда цифрового, члена своєї редакції – телеведучого, який працює на основі штучного інтелекту.
«Я працюватиму невтомно і продовжуватиму інформувати вас про останні події – тексти завантажуються в систему, що керує мною, безперервно», – говорить віртуальний журналіст.
«Сіньхуа» у партнерстві із китайською пошуковою системою «Соуґоу» розробили цього «телеведучого» шляхом машинного навчання, щоб той міг імітувати голос, міміку обличчя, а також жестикуляцію реальних людей. Розробники наголошують, що він здатний зачитувати той чи інший текст так само, як справжній професіонал.
«Розвиток медіа-галузі вимагає постійних інновацій та глибокої інтеграції з міжнародними передовими технологіями», – цитує ведучого британське видання The Guardian.
Нового ведучого представили на китайській міжнародній інтернет-конференції, яка слугує платформою, де Китай демонструє свій потенціал у розробці нових технологій, мовиться у статті.
Такий «телеведучий» здатен бути в ефірі чи не цілодобово, що знизить витрати, необхідні для випуску новин, кажуть в агентстві. В «Сіньхуа» також пояснюють, що технологія штучного інтелекту не обмежується лише презентацією новин: системи можна використовувати і в інших галузях промисловості.
Оглядач видання Futurism, щоправда, зауважує: «Поки що англомовна версія телеведучого залишає бажати кращого. Ми бачили, як штучні голоси дурять людей телефоном за допомогою технології Google Duplex, але цей конкретний приклад нікого не зможе надурити. Хоча він і заснований на справжньому англомовному новинному повідомленні, голос усе ще звучить ніби робот».
Зняття людини з новинного мовлення дійсно може зменшити витрати, проте такий крок не обов’язково зробить новини більш привабливими. «Слухати монотонного робота, який розповідатиме про світову торгівлю та політику, насправді не зовсім схоже на утопічне майбутнє, на яке ми сподіваємось. Але, враховуючи швидкість, з якою розвивається машинне навчання та штучний інтелект, важко уявити майбутнє, в якому ведучі, які працюють на штучному інтелекті, будуть відрізнятися від реальних – на краще чи на гірше», – зазначає автор.
Інформаційна війна: новий фронт
Відеоролик із телеведучим, яким керує штучний інтелект, не видається чимось небезпечним. Проте насправді це привід для серйозних занепокоєнь, вважають експерти.
Такі технології можуть дозволити будь-кому створювати відеоролики про реальних людей, де вони казатимуть те, чого ніколи не казали, повідомляло раніше агентство Associated Press.
Експерти та законодавці вже прогнозують, що цей високотехнологічний спосіб «вкладати слова в чиїсь уста» стане найсучаснішою зброєю в умовах інформаційних воєн.
Мова йде про створення так званих «діпфейків».
«Діпфейк» складається із двох англійських слів: «deep» – глибокий та «fake» – фальшивка». «Діпфейк» – керований штучним інтелектом механізм заміщення обличчя людини на відео обличчям іншої людини шляхом машинного навчання – таке визначення пропонує один із онлайн-словників.
Експерт із питань національної безпеки зі США Ендрю Ґротто у сюжеті Associated Press прогнозує, що протягом наступного року чи двох років для людини буде дуже важко відрізнити реальне відео від підробленого.
«Ми знаємо, що є люди, які намагаються розділити суспільство, вплинути на вибори, і ми знаємо, що така спроможність існує. Ось чому це логічно, що хтось збирається зробити наступний крок і використати його саме в таких цілях», – каже американський сенатор-республіканець Марко Рубіо, який є співавтором законопроекту, що вимагає від уряду США автоматично накладати санкції на країни, які, на думку розвідки США, здійснюватимуть втручання у перебіг виборів у Сполучених Штатах.
А в 2018 році американський режисер Джордан Піл та видання BuzzFeed опублікували начебто відеозвернення колишнього президента США Барака Обами, в якому він називає Дональда Трампа «засранцем». Насправді Обама нічого такого не казав. Ролик створили за допомогою програми Fakeapp і графічного редактора Adobe After Effects. Журналісти і режисер мали намір показати, який вигляд у майбутньому будуть мати «фейкові» новини.
За словами продюсера, кліп був створений за допомогою комбінації професійних і безкоштовних програм для редагування відео, які використовують машинне навчання.
Тим часом Міністерство оборони США та університети працюють над технологіями виявлення таких підроблених зображень та відео.