Штучний інтелект і людина: загрози і можливості

Робот Софія. 2018 рік

(Рубрика «Точка зору»)

Засновник новаторських високотехнологічних компаній Tesla та SpaceX Ілон Маск ще у 2018 році під час конференції South by Southwest в Остіні (Техас, США) жбурнув у маси пророчо-ексцентричну тезу про те, що штучний інтелект (AI) є небезпечнішим за ядерну зброю. Чи це так?

Заява Ілона Маска, мов каталізатор, додала наснаги прихильникам концепції «всезагального» штучного інтелекту (AGI – artificial generic intelligence), що пророкують повстання універсального машинного інтелекту, який набуде здібностей, досі невідомих природному інтелекту людини, й відтак занапастить людство.

Реальність, однак, дещо інша.

Робот Кісмет із Лабораторії штучного інтелекту Массачусетського технологічного інституту (MIT). Кембридж

Обмеження штучного інтелекту

Ми спостерігаємо, що сучасні системи штучного інтелекту, попри фантастичні успіхи – як, наприклад, у царині шахів, де уже досить давно існують комп’ютерні програми, що доволі легко перемагають навіть найсильніших у світі шахістів, або ж те, що значна кількість великих компанію оперують чат ботами, що автоматизують та прискорюють обробку звернень їхніх клієнтів без залучення людей-операторів – мають істотні й фундаментальні обмеження.

Ось лише деякі з них:

  • системи штучного інтелекту успішно вирішують лише якийсь єдиний тип задач – той, для якого ці системи було спроєктовано від самого початку;
  • у них немає можливості «перемикати контекст», переключаючись з одного типу задач на інший, так, як це вміють робити люди.
  • для того, щоб зуміти виконувати свою задачу, системам штучного інтелекту потрібен певний час для навчання, а також інформація щодо «еталонної правди». Тобто необхідна певна кількість еталонних даних, на яких систему навчають перш, ніж запустити в експлуатацію. І це стосується навіть надсучасних нейронних мереж;
  • у моменти істотних змін зовнішніх умов, коли вхідні параметри для системи штучного інтелекту перестають поводити себе в такий спосіб, як це спостерігалось у момент її початкового навчання, виникає необхідність тимчасового зняття системи з експлуатації для повторного навчання вже за нових умов.

Усі ці вищезгадані обмеження натякають на існування «деміургів» – тих, хто визначає цілі систем штучного інтелекту, організує їхнє навчання, формує для них навчальні дані (ту ж саму «еталонну правду»), визначає правила й соціальні норми вжитку систем штучного інтелекту та зрештою запускає їх в експлуатацію. Тобто мова іде про людей.

Ризики застосування

Водночас, уже стало ясно, що ризики від безконтрольного чи неетичного застосування технологій штучного інтелекту становлять цілком реальні небезпеки для людства.

А саме:

  • втрата робочих місць людьми через автоматизацію рутинних повторюваних операцій;
  • порушення приватності, ледь не до повної її руйнації;
  • Deepfakes («синтез слів «глибинне навчання» та «підробка» – методика синтезу зображення чи аудіоряду мовлення людини, яка базується на штучному інтелекті; вона використовується для поєднання і накладення наявних зображень та відео на вихідні зображення або відеоролики».
  • автоматизована зброя, що поцілюватиме живі об'єкти без втручання людей-операторів;
  • помилково-упереджені рішення систем через викривленість початкових навчальних даних (algorithmic bias).

Яскравим прикладом подібної ситуації був бан платформою YouTube каналу хорватського шахіста Антоніо Радича, одного з популярних світових шахових оглядачів, через підозру в «расизмі» на підставі аналізу матеріалів його каналу системами штучного інтелекту.

  • консервування соціально-економічної нерівності між різними верствами населення й націями в світі.

Однак, знаючи про способи створення й навчання сучасних систем штучного інтелекту, неважко пересвідчитися в тому, що ці ризики можуть стати реальними не через власне самі системи, а через отих самих «втаємничених невідомих» – «деміургів». Тобто, знову ж таки, людей.

Інженери з управління повітряним рухом випробовують нову систему в лабораторії NATS Digital Tower, всередині диспетчерської вежі в лондонському аеропорту Хітроу.

Можливості

Власне, ми впритул наблизилися до точки біфуркації, після проходження якої ми (людство в цілому) можемо опинитися в одному з двох цілком протилежних станів.

Цивілізація може перетворитися у:

  • суспільство тотального контролю (хтось міг би назвати його ультраіндустріальним суспільством), в якому «деміурги», озброєні засобами систем штучного інтелекту, отримають можливість на кожному регулювати життя більшості людей.
  • суспільство творців, де системи штучного інтелекту допоможуть людям звільнитися від рутини, відчути солідарність та спрямувати свій вільний час на творчу діяльність.

Про небезпеку першого сценарію попереджав ще Іван Єфремов – видатний енциклопедист, палеонтолог світового рівня, археолог, мандрівник, філософ та самобутній письменник-фантаст.

У 1968 році було вперше опубліковано його пророчий роман «Година Бика». Хоч роман і був фантастичним за антуражем, зображені там суспільні формації двох планет були насправді варіантами розвитку майбутнього для нас – землян.

В одному з тих світів (Торманс) ми спостерігаємо суспільство, де все ретельно регламентовано, і всі верстви населення підпорядковані чіткім приписам від «вищих» (їх автор називає «змієносцями») та «верховних» (Ради Чотирьох). А наглядають за виконанням приписів тамтешньої еліти автоматизовані засоби контролю, які можна було б із легкістю назвати системами штучного інтелекту.

Спроби реалізації подібної ультраіндустріальної моделі помітні в сучасному Китаї, де система соціального рейтингу громадян (social credit system) під управлінням систем штучного інтелекту, створення якої було анонсовано ще шість років тому, була запущена в тестову експлуатацію у декількох провінціях країни. Поки вони ще далекі від повномасштабного впровадження.

У романі Івана Єфремова жителі Тормансу таки змогли вирватися із пастки «деміургів», відновивши соціальну солідарність та довіру один до одного.

Але це знову не про системи штучного інтелекту, а про нас – людей і нашу здатність змінюватися на краще.

Чи зможемо ми виправдати віру в людство видатного письменника-провидця? Чи нас поглине нас тотальний електронний ультра-індустріальний кінець цивілізації?

Це стане зрозумілим вже найближчими роками.

Георгій Вишня – управлінець у сфері IT, фахівець із систем штучного інтелекту, машинного навчання, есеїст.

Думки, висловлені в рубриці «Точка зору», передають погляди самих авторів і не конче відображають позицію Радіо Свобода

ДИВІТЬСЯ ТАКОЖ: Китай до деталей контролює життя представників етнічних меншин у таборах – розслідування