XXI век, второе десятилетие: люди против роботов

Предсказания многочисленных фантастов ХХ века относительно роботов в чем-то сбылись, а в чем-то - нет. Не сбылись пророчества о том, что роботы все поголовно будут иметь антропоморфный вид и общаться с людьми на их языке и в их манере. Зато сбылось другое - предсказание, что роботы проникнут во все сферы человеческой жизни.


Роботы и война

Сегодня специализированные роботы собирают технику на заводских конвейерах и помогают проводить хирургические операции, пылесосят полы в квартирах и сообщают нам остаток денег на мобильном телефоне, варят кофе в офисе и следят за состоянием тяжелых больных в реанимации. Роботизированные космические корабли доставляют грузы на МКС, а роботизированные автомобили от Google уже ездят по дорогам США.

Попутно человечество, по печальной традиции, весьма преуспело и в использовании роботов в военном деле. Разведывательные дроны и орбитальные спутники шпионят за потенциальными противниками по всему миру. Американские и израильские беспилотники ракетами без суда и следствия убивают людей, заподозренных в терроризме. Крылатая ракета-робот "Томагавк" доставляет заряд точно в заданную точку за две тысячи километров. На этом фоне применяемые для разминирования роботы-саперы выглядят прямо-таки гуманистами.

Современные ракетные комплексы ПВО могут действовать в полностью автоматическом режиме - это умеют американские комплексы Patriot, российская система С-400 и израильский "Железный купол". В 2010 году Южная Корея начала размещать на границе с КНДР патрульных роботов, способных вести наблюдение за приграничными территориями, обнаруживать нарушителей и, с одобрения оператора, открывать по ним огонь.

 


Правозащитники и юристы

Распространение военных роботов вызывает понятное беспокойство у всех, кто пока не страдает милитаризмом головного мозга. Именно поэтому в конце минувшего года крупнейшая международная правозащитная организация Human Rights Watch (HRW) совместно с Гарвардской школой права опубликовала доклад об опасности использования полностью автономных боевых роботов и роботизированных вооружений. А заодно призвала правительства всех стран отказаться от их разработки.

Доклад называется "Теряя человечность: Доводы против роботов-убийц" (Losing Humanity: The Case Against Killer Robots). Его авторы уверены, что полностью автономные боевые роботы или системы вооружения будут приняты на вооружение уже в ближайшие 20-30 лет. Как только это произойдет, и человек окажется исключен из систем управления военной техникой, окажутся нарушены сразу несколько положений международного гуманитарного права.

Главный вопрос: насколько этично отдавать компьютеру право решать вопросы о жизни и смерти в условиях боя? Выглядит ли убийство человека человеком более логичным или оправданным действием, чем убийство человека машиной?

Как признали эксперты HRW, "все роботы суть механизмы, оснащенные возможностью воспринимать окружающий мир и действовать в соответствии с программой", то есть действовать без вмешательства человека. Роботы делятся на три категории: "человек-в-системе-управления" (human-in-the-loop), "человек-над-системой-управления" (human-on-the-loop) и "человек-вне-системы-управления" (human-out-of-the-loop).

В первом случае беспилотная машина способна сама обнаруживать и выбирать цели, но решение об их уничтожении принимает только человек-оператор. Именно так сегодня действуют большинство американских беспилотников, например, в Афганистане или Пакистане.

Второй случай - это системы, которые сами обнаруживают, выбирают цели и принимают решение об их уничтожении. При этом человек-оператор остается наблюдателем с возможностью в любой момент может вмешаться в цепочку принятия решений. Третий случай - когда робот способен обнаруживать, выбирать и уничтожать цели вообще без вмешательства человека.

Последний вариант - самый страшный - был воплощен в реальность первым. Еще в 1970-х годах в СССР была создана система 15Э601 "Периметр" - автоматический комплекс управления массированным ответным ядерным ударом. Задача "Периметра" - отдать приказы на боевые пуски стратегических ракет в случае повреждения прямых линий связи или уничтожения командных пунктов. То есть это так называемая "Машина Судного дня", способная полностью автоматически, без вмешательства человека, инициировать массированный ядерный удар в ответ на такой же удар противника. В 2011 году командующий РВСН Сергей Каракаев заявил, что система реально существует и стоит на боевом дежурстве. Известно, что аналогичной системой ответного ядерного удара располагают и США.

Однако в данном случае "Машина Судного дня" - скорее исключение. Правозащитников сегодня больше беспокоят автономные боевые системы, представляющие реальную опасность для гражданского населения в зоне военного конфликта. По оценке HRW, автономные боевые роботы совершенно не соответствуют требованиям международного гуманитарного права. Первое же их применение нарушит положения Женевских конвенций о защите жертв международных вооруженных конфликтов, которые требуют, чтобы все создаваемые виды оружия проходили проверку и оценку на опасность для гражданского населения в случае их боевого применения.

В HRW полагают, что разработчики вообще не собираются проводить оценку перспективных боевых роботов на соответствие международному праву. В результате автономные роботы станут представлять прямую угрозу невоюющему населению. По мнению HRW, такие системы "не обладают человеческими эмоциями", а потому не способны сравнивать и сопоставлять действия людей. Как говорят эксперты HRW, если для бойца-человека не составит труда отличить "устрашающего вида гражданского" от "представляющего угрозу участника боевых действий", то робот на это не способен. Кроме того, роботы не смогут предугадывать последствия тех или иных действий человека и, следовательно, не сумеют распознать перелом в настроении противника, если он в бою с роботом захочет, например, сдаться в плен. В результате роботы будут убивать раненых и сложивших оружие противников, хотя это запрещено Женевскими конвенциями.

Приводя эти и прочие доводы, HRW в своем докладе призывает правительства всех стран мира законодательно запретить разработку, производство и использование автономных роботов и систем вооружения, а также тщательно оценивать все создаваемые технологии, которые могут быть использованы при конструировании автономных дронов. Кроме того, разработчиков робототехники и вооружений HRW призвала тщательно проверять свои проекты на соответствие нормам национального и международного гуманитарного права.


Россия и ООН

Уже в июне 2013 года стало известно, что в России создается собственная лаборатория по разработке боевой робототехники. Об этом публично заявил вице-премьер России Дмитрий Рогозин. По его словам, такую лабораторию планируется развернуть в Коврове во Владимирской области на базе Завода имени Дегтярева.

"Такое решение было обсуждено и членами Военно-промышленной комиссии, и представителями Минобороны, и Минпромторга. По итогам поездки в Ковров я сформулирую и выпущу поручение по созданию лаборатории по боевым роботам, - заявил вице-премьер. - Именно в ковровскую лабораторию мы будем направлять всю идеологию конструкторской мысли в вопросах создания робототехники поля боя".

Уже после сообщения о российских разработках ООН выступила с призывом к международному сообществу ввести глобальный мораторий на разработку роботов для ведения военных действий. Спецдокладчик ООН Кристоф Хейнс призвал на время заморозить все разработки, связанные с робототехникой, предназначенной для убийств людей. "Этот шаг даст нациям возможность еще раз обдумать подобные разработки, пока мы еще не выпустили джина из бутылки", - заявил он.

По его мнению, программирование роботов на совершение убийств неизбежно будет подталкивать создателей и владельцев подобных машин к большему количеству вооруженных конфликтов. А в войнах, которые будут вести роботы, окажется невозможно подсчитать случаи военных преступлений и наказать виновных. Переломный момент наступит, как только технологии дойдут до той стадии, когда роботы сами, руководствуясь своими программами, будут решать, когда и кого следует убить.

Виктор ДЕМИДОВ

Версия для печатиВерсия для печати

Рубрики: 

  • 1
  • 2
  • 3
  • 4
  • 5
Всего голосов: 0
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!

Читайте также