Етико-моральнісні та правові аспекти роботизації Збройних Сил

Етико-моральнісні та правові аспекти роботизації Збройних Сил

Уривок з аналітичної записки Національного інституту стратегічних досліджень

Наша дорога редакція колись писали про світовий дискурс довкола роботизації армії і моральні аспекти цього процесу. Перші паростки цієї дискусії пробились і в Україні. Пропонуємо вам уривок з аналітичної записки Національного інституту стратегічних досліджень щодо окресленої проблеми.

За даними Міжнародного комітету з контролю за роботизованими озброєннями (International Committee for Robot Arms Control (ICRAC), станом на березень 2016 р., близько 40 країн, у тому числі США, КНР, РФ, Великобританія, Франція, Китай, Ізраїль, Південна Корея, розробляли роботів, здатних воювати без людської участі, –- автономних «роботів-кілерів» або ж «летальних автономних роботів» (Lethal autonomous robotics (LARs). 30 держав розробляли і виробляли до 150 типів безпілотних літальних апаратів (БПЛА), з них 80 прийняті на озброєння 55 армій світу.

Однак лише дві країни — США й Великобританія — оприлюднили офіційні документи, в яких висловили офіційну позицію щодо розробки такої зброї та перспектив її застосування. Відповідно, США й Великобританія активно опонують на рівні офіційних міністерств відомств кампаніям типу «Зупинимо роботів-вбивць!» («Campaign to Stop Killer Robots»), підкреслюючи, що ця сфера діяльності й без того добре врегульована міжнародним гуманітарним правом й зокрема — Женевськими конвенціями.

Зокрема, шляхи використання «роботів-вбивць» Пентагон намітив на суто офіційному рівні 21 листопада 2012 р., видавши офіційну директиву щодо використання «автономії в системах озброєнь», де підкреслюється, що робото-системи в жодному разі не можна скеровувати проти людей. У червні 2016 р. Рада з оборонних наук при Пентагоні опублікувала доповідь з «автономії», де розвивається та ж сама теза.

За визначенням спеціального доповідача Генеральної Асамблеї ООН з даної проблеми Крістофа Гейнса, поширеним Радою ООН з прав людини у 2013 р., йдеться про робото-системи, у яких стираються істотні відмінності між людиною-воїном та зброєю, оскільки зброя наскільки унезалежнюється від людини, що не потребує її команд. У цьому контексті в зазначеному документі ООН констатується: LAWs дійсно є різновидами бойових роботів, спроможними виявляти й атакувати різноманітні об’єкти включно з людьми без будь-якого втручання людини-оператора.

Водночас варто зауважити, що втручання вбивчих роботів у бойові операції поки що обмежене не стільки технологічними можливостями, скільки панівною етико-правничою догмою, що остаточне рішення щодо нападу або відступу має приймати виключно людина (командир, оператор тощо). Оскільки деякі зразки сучасної робототехніки здатні самостійно «приймати рішення» про відкриття вогню по противнику, це означає, що творці бойових машин свідомо чи несвідомо, офіційно чи неофіційно відкривають скриньку Пандори з усіма ймовірними й неймовірними ризиками, викликами й загрозами такого кроку.

Конкретно йдеться про заперечення новими типами автономних летальних озброєнь міжнародного права війни, сформульованого, зокрема, у Женевських конвенціях та першому додатковому протоколові до цих конвенцій. Ст.35 цього протоколу висловлює дві принципових перестороги до новітньої зброї. Перша заперечує право сторін вибирати зброю, застосування якою є необмеженим. Друга заперечує зброю, яка може завдати надмірного болю або страждання.

28 липня 2015 року на момент відкриття Міжнародної об’єднаної конференції зі штучного інтелекту (The International Joint Conference on Artificial Intelligence) Стівен Гокінг, Елон Маск, Стів Возняк та інші визнані авторитети відкрили до підписання лист-попередження, в якому йдеться про загрози розробки на базі штучного інтелекту воєнних машин з повністю автоматизованими системами пошуку й знищення ворожих цілей (autonomous-weapon systems).

Автоматизовані робототехнічні системи озброєнь: новий виклик воєнній безпеці України”. Аналітична записка Національного інституту стратегічних досліджень

comments powered by Disqus