Збройні сили США планують оприлюднити нову доктрину щодо модернізації у довгостроковій перспективі, яка влючатиме, зокрема, використання штучного інтелекту (ШІ) та квантових обчислень. Про це повідомив голова Об’єднаного комітету начальників штабів США Марк Міллі під час пресконференції 30 червня. Раніше, ще до масштабного вторгнення Росії до України, українські військові керівники та посадовці «Укроборонпрому» продемонстрували новий експериментальний робот «Фантом-2».
Генерал Марк Міллі наголосив, що одним із завдань Сполучених Штатів є оптимізація технологій, зокрема штучного інтелекту, для ведення війни – задля підтримки нинішньої вирішальної переваги армії США.
«Ми робимо це не для того, щоб вести війну, а для того, щоб стримати війну великих держав», – наголосив Міллі.
Це технологія, яку наші опоненти використовуватимуть проти нас, і нам буде вигідно дістатися туди першимиМарк Міллі
Під час Форуму національної безпеки на Капітолійському пагорбі у червні Міллі також торкався теми ШІ і наголоосив, що технології, здатні навіть до відтворення емоцій, матимуть великий вплив на військових.
«Це матиме фундаментальний вплив», – цитувала генерала Асоціація сухопутних військ США AUSA.
Відкритим питанням залишається те, наскільки швидко стане доступною нова технологія та як буде адаптована до військових цілей. «Це швидко наближається», – запевнив Міллі, наводячи також прогноз експертів про військову адаптацію технологій штучного інтелекту вже через п’ять років.
«Це технологія, яку наші опоненти використовуватимуть проти нас, і нам буде вигідно дістатися туди першими», – зауважив Марк Міллі.
Занепокоєння щодо ШІ
Раніше Міллі вже коментував занепокоєння щодо потужності ШІ. Так, в інтерв'ю виданню NPR головний військовий радник президента Джо Байдена сказав, що США вирішили: люди, а не комп’ютери повинні продовжувати ухвалювати рішення щодо життя чи смерті під час війни.
Генерал Міллі додав, що політика США – на відміну від політики деяких «ворожих країн» – полягає у «забезпеченні того, щоб люди залишалися в циклі ухвалення рішень».
Ми повинні переконатися, що модернізуємо наші війська, щоб залишатися домінуючимиМарк Міллі
Міллі каже, що фундаментальні уроки ведення війни слід застосовувати на полі битви. Утім, за його словами, нова технологія вперше за десятиліття призвела до серйозних змін у характері війни, що мало наслідки для США.
«Ми повинні переконатися, що модернізуємо наші війська, щоб залишатися домінуючими, – каже генерал. – Діючи так, будемо стримувати будь-яку потенційну агресію з боку будь-якої майбутньої великої держави, яка може загрожувати Сполученим Штатам і нашим інтересам».
Час на ухвалення рішень різко скоротиться
З іншого боку, програмне забезпечення, кероване штучним інтелектом, може змусити великі держави скоротити вікно ухвалення рішень до хвилин замість годин чи днів. Вони можуть надто сильно залежати від стратегічних і тактичних оцінок штучного інтелекту, навіть якщо мова йде про ядерну війну, застерігає Foreign Policy.
Видання цитує Герберта Ліна зі Стенфордського університету, який каже – небезпека полягає в тому, що особи, які ухвалюють рішення, можуть поступово надміру покладатися на штучний інтелект як частину командування та контролю над озброєнням, оскільки він працює з набагато більшою швидкістю, ніж люди.
В опублікованій цього року книзі «Штучний інтелект і бомба» Джеймс Джонсон з Університету Абердіна припускає сценарій ядерної війни в Східно-Китайському морі у 2025 році, спричинену розвідувальними даними зі сторони США та Китаю, керованими штучним інтелектом. Йдеться про помилки програми, схильність штучного інтелекту до гіпербол та небезпеку ситуації, коли люди починають вірити, що машини «думають».
А у звіті, опублікованому Асоціацією контролю над озброєннями, йдеться про те, що штучний інтелект та інші нові технології, такі як гіперзвукові ракети, можуть призвести до «розмивання різниці між звичайною та ядерною атакою».
А також про те, що боротьба за використання нових технологій для військових цілей йде швидшими темпами, ніж спроби оцінити небезпеку, яку вони становлять та встановити обмеження на їх використання.
Небезпека від шахраїв, чи кібертерористів
Інше занепокоєння полягає в тому, що технологія штучного інтелекту може дозволити шахраям або навіть терористам отримати знання зі створення брудних бомб або інших смертоносних пристроїв. Значна частина даних сьогодні зберігається приватними компаніями, які можуть бути вразливими для шпигунства, керованого тим самим штучним інтелектом. Розсекречення може стосуватися також виявлення місць розміщення ядерної зброї, зменшуючи стримуючий ефект такої таємниці.
Бізнесмени, інформатики та філософи (загалом понад 110 осіб) у березні закликали накласти мораторій на розробку систем штучного інтелекту та експериментів із ним через побоювання, що ШІ може спричинити значні зміни, оскільки наразі «не існує належного рівня відповідального управління таким ресурсом», інформував «Голос Америки».
Зробити війну менш смертоносною
Головне завдання штучного інтелекту – не позбавити воєнних аналітиків роботи, а зробити війну менш смертоносною та, можливо, посилити стримування, наголошують оглядачі видання Foreign Policy.
За їхньою інформацією, Міністерство оборони США вже експериментує з ботами зі штучним інтелектом, які можуть керувати модифікованим винищувачем F-16, а Росія випробовує автономні транспортні засоби, схожі на танки. Китай поспішає розгортати власні системи, керовані штучним інтелектом, а ефективність озброєних безпілотників також очевидно підвищиться в найближчі роки.
Видання також інформує про «таємну програму» ВПС США, яка є спробою розвитку штучного інтелекту – «Домінування в повітрі наступного покоління». Foreign Policy з посиланням на власні джерела свідчить, що за цією програмою близько 1000 безпілотних літальних апаратів наразі працюють разом із 200 пілотованими літаками.
Генерал ВПС США у відставці Чарльз Волд вважає, що «це примножить сили», оскільки наразі однією з найбільших проблем залишається підбір кадрів.
Роботизація війни
У найближчі 10-15 років приблизно одна третина найсучасніших збройних сил світу буде роботизованою, переконаний Марк Міллі.
Сунь Цзи каже нам: побачте себе і ворога, і ви виграєте 1000 битв. Штучний інтелект і квантові обчислення зроблять саме цеСунь Цзи
За його словами, нинішня робототехніка може реалізувати одну з головних воєнних настанов китайського мислителя Сунь Цзи, автора історичного трактату із військової стратегії «Мистецтво війни».
«Сунь Цзи каже нам: побачте себе і ворога, і ви виграєте 1000 битв. Штучний інтелект і квантові обчислення зроблять саме це. Ми зможемо бачити себе і бачити ворога набагато більш значущими способами, ніж зараз», – сказав Міллі.
Він також наголошує, що робототехніка відіграватиме все більшу роль у безпілотних літальних апаратах, безпілотних морських суднах і безпілотних наземних транспортних засобах. Генерал нагадує, що вже сьогодні вони стають важливими компонентами чи не кожної армії.
Міллі прогнозує безпілотні військово-повітряні сили та військово-морський флот «без матросів» чи й танк без екіпажу.
До слова, «Голос Америки» повідомляв ще до повномасштабного вторгення Росії (але під час АТО), що українські військові керівники та посадовці «Укроборонпрому» продемонстрували новий експериментальний робот «Фантом-2» на виставці Асоціації сухопутних військ США AUSA у Вашингтоні. Нову роботизовану машину було розроблено з врахуванням уроків гібридної війни.
Наземний безпілотник «Фантом-2» може рухатись на колісному або гусеничному ходу, може бути озброєний протитанковою зброєю, пусковою установкою для гранат або автоматами. Цю зброю планувалося застосувати проти керованих Росією сил під час АТО на той час.
Генеральний директор державного концерну «Укроборонпром» Роман Романов у інтерв’ю «Голосу Америки» тоді розповів, що американські компанії виявляють значний інтерес до української техніки, випробуваної на реальному полі бою.
Прогнози штучного інтелекту про війну Росії проти України
Поки експерти та урядовці обговорюють доцільність використання штучного інтелекту у процесі ухвалення військових рішень, технологія вже продемонструвала свою користь, зокрема як інструмент для передбачення російського вторгнення до України.
Як свідчить генерал армії США у відставці Стенлі Маккрістал для статті у Foreign Policy, моделі на основі штучного інтелекту дали «особливо жахливий» і чіткий прогноз того, що Росія вторгнеться.
І це було ще на тому етапі, коли ймовірність війни все ще обговорювалася у Вашингтоні та інших західних столицях як теоретична.
Війна на папері й справжня війна відрізняютьсяМарк Міллі
30 червня голова Об’єднаного комітету начальників штабів США Марк Міллі заявив, що не здивований тим, що наступ української армії відбувається повільніше, ніж прогнозували комп'ютерні розрахунки.
Відповідаючи на запитання про те, чи його турбує, що контрнаступ України триває надто довго і не демонструє достатнього прогресу, Міллі відповів: «Війна на папері й справжня війна відрізняються. На реальній війні гинуть справжні люди. Справжні люди на передовій, справжні люди у бойових машинах, справжні тіла розриваються від вибухів».
«Отже, коли комп’ютер каже вам, що ви будете просуватися з такою-то швидкістю, можливо, справжня війна може трохи сповільнити це», – сказав Міллі під час розмови у Національному пресклубі США у пʼятницю, 30 червня.
Зараз штучний інтелект прогнозує, наприклад, удари по українських містах. Але головну роль продовжує відігравати розвідка та інші інструменти, якими традиційно користуються збройні сили.
Генерал-лейтенант Джек Шанахан, колишній директор Об’єднаного центру штучного інтелекту Пентагону в коментарі Foreign Policy запевнив, що Міноборони США попри весь інтерес до можливостей ШІ не передаватиме машинам командування та управління. Головним завданням для ШІ, за його словами, залишається підвищення ефективності техніки, щоб рятувати життя та допомогати запобігати війні.
Найбільше занепокоєння викликало б надання цій машині або об’єкту надто багато повноваженьДжек Шанахан
Водночас питання полягає в тому, «чи будуть китайці та росіяни разом з іншими третіми сторонами дотримуватися тих самих правил, що й Вашингтон», каже Шанахан.
«Я не вірю, що США підуть шляхом дозволу речей... без людського контролю. Але я не впевнений, що хтось інший може цього не зробити. Я вважаю, що найбільше занепокоєння викликало б надання цій машині або об’єкту надто багато повноважень».