Пища для размышлений

(Апрель 2016)

Эту военную технику именуют по-разному. Одни говорят о роботах-убийцах, другие предпочитают термин «системы летальных автономных вооружений». Но как бы это ни называлось, угрозы нового оружия для человечества уже очень серьезны.

Robot-at-war

В середине апреля этого года, в Женеве под эгидой ООН прошла третья «неофициальная встреча экспертов» по проблемам и вопросам вокруг полностью автоматизированных военных систем, способных убивать людей самостоятельно.

Для того, чтобы стало сразу понятно, сколь серьезно воспринимаются ныне такие проблемы, достаточно отметить, что среди специалистов роботы-убийцы расцениваются как «третья великая революция» в военном деле. То есть речь идет о технологии уничтожения, по значимости сравнимой лишь с изобретением пороха и ядерного оружия.

Все не просто

Что же касается позиций сторон, очень по-разному участвующих в процессе, а потому и рассматривающих предмет с принципиально различных точек зрения, то здесь все обстоит очень и очень непросто.

Точнее говоря, одна из сторон, представленная сторонниками разоружения, формулирует свою позицию предельно ясно и четко. Роботы-убийцы, говорят они, представляют собой гигантскую опасность для самого существования человечества.

Причем опасность тут абсолютно реальная – и без фантастических пока сценариев о «восстании машин». Потому что автономные системы оружия не только существенно снижают психологический порог для начала войны, но и одновременно снимают вопрос об ответственности – кто теперь должен отвечать за преступные убийства невинных людей (начальник технопарка, программист, изготовитель машины или, может, сам робот?).

По этим причинам, говорят сторонники разоружения, именно сейчас, пока еще не поздно, надо особым международным договором полностью запретить разработку и разворачивание таких систем вооружений, где решение об атаке принимает не человек, а машина…

Что же касается противоположной стороны дебатов, особо показательно представленной государствами, занимающими наиболее передовые позиции в области автоматизированных военных технологий, то в этом лагере свои позиции формулируют куда более расплывчато и замысловато.

И чтобы эти позиции понять, надо хотя бы чуть поподробнее рассмотреть, что власти этих государств говорят на публику, что реально делают, и что при этом думают.

Что говорят

Среди официальных заявлений, сделанных представителями государств и организаций в ходе нынешней женевской встречи, а затем выложенных на веб-странице мероприятия, особый интерес должна вызывать позиция США. Хотя бы по той уже причине, что никто на этой планете не вкладывает в технологии боевых роботов денег больше, чем власти этой страны.

Суть американской позиции сводится к тому, что они всячески приветствуют переговоры по данным проблемам, но со своей стороны официально предпочитают не выступать ни за запрещение, ни за одобрение летальных автономных вооружений в современных войнах.

Кроме того, США предлагают вообще не обсуждать тему возможных последствий от распространения нового оружия, а вместо этого сосредоточиться на уточнениях терминологии.

Например, американцам очень не нравится словосочетание «значимый человеческий контроль», уже получившее распространение применительно к управлению военными роботами. Вместо этого они хотели бы оперировать более удобным, на их взгляд, выражением «подобающие уровни человеческого суждения»… Ну и далее постепенно продвигать взаимопонимание примерно по такой траектории.

Короче говоря, тема большая и сложная, с каждым термином надо разбираться очень тщательно – так что переговоров для достижения консенсуса нам тут предстоит на многие и многие годы.

Что делают

Весьма похожей точки зрения, во многом созвучной США, придерживаются и другие страны известного ряда «передовиков». По данным международного движения «Остановить роботов-убийц» (www.stopkillerrobots.org), объединяющего свыше полусотни правозащитных и гуманитарных организаций планеты, таких государств сейчас как минимум шесть.

Помимо уже упомянутых США, активными исследованиями, разработкой и тестированием полностью автономных систем оружия занимаются также Великобритания, Израиль, Китай, Россия и Южная Корея. И хотя все страны подчеркивают, что в настоящее время таких систем у них на вооружении нет, это вовсе не означает, что их не существует в виде уже готовых демонстрационных образцов.

В качестве примера таких «полу-автоматических», как их предпочитают именовать, видов оружия можно назвать американский беспилотник Northrop Grumman X-47B, имеющий возможности атаки и в полностью автономном режиме, при отсутствии связи с оператором. Другая особенность аппарата – способность самостоятельно садиться на палубу авианосца, что считается одним из сложнейших маневров в авиации.

Существенно другой пример из того же ряда – корейская разработка, автоматический пулемет охраны Samsung SGR-A1, способный одновременно отслеживать несколько движущихся целей. Есть информация, что по крайней мере некоторое ограниченное время эта система «в частично автономном режиме» охраняла демилитаризованную зону, разграничивающую Южную и Северную Кореи.

Третий показательный пример – гордость российского оружия, танк «Армата», на базе которого разработчики постоянно создают все более и более совершенные версии дронов для работы в полу-автоматическом режиме. Особенно характерны неофициальные имена, которые получают новые модели по мере расширения их искусственного интеллекта: Терминатор-1, Терминатор-2, Терминатор-3…

Что думают

Когда люди на высоких государственных постах публично говорят одно, а реально делают нечто совершенно другое, то понятно, что думают они совсем не так, как говорят. Читать чужие мысли, конечно, пока что возможностей нет. Однако в прессу и Сеть с некоторых пор регулярно происходят утечки секретных документов, которые к замыслам их авторов всегда гораздо ближе, нежели к публично произносимым речам.

Конкретно для нашей истории особый интерес представляют так называемые «Drone Papers». То есть комплекс секретных «Документов о дронах», слитых журналистам в 2015 году одним из анонимных инсайдеров в разведывательном сообществе США.

Потому что и в спецслужбах, и среди военных хватает людей, кого сильно беспокоит увлеченность властей темой роботов-солдат. И из файлов утечки, к примеру, стало документально известно, что широко расхваливаемая «высочайшая хирургическая точность», с которой уничтожают врагов Америки дистанционно управляемые дроны – это заведомая и искусственно конструируемая ложь.

Потому что реально количество людей, убитых при ракетных ударах дронов, нередко может оказываться в соотношении 1 к 9. То есть наряду с одним из тем, кто был целью атаки, попутно уничтожалось порядка девяти «не тех» – женщин, стариков, детей, кого угодно, кто просто был рядом.

Но столь чудовищные цифры «сопутствующего ущерба», как это принято именовать в служебных документах, абсолютно никого в высоком руководстве не останавливают. Напротив, применение дронов считается наиболее перспективной формой будущей войны. Цифры невинно уничтожаемых людей, конечно, вызывают некоторое беспокойство. Решают проблему, однако, очень просто – всячески засекречивая документы о реальной ситуации с эффективностью роботов на войне.

В подобном контексте вряд ли удивительно, что на следующий финансовый год Пентагон только лишь под одни задачи разработки искусственного интеллекта и связанных с ним автономных военных систем запрашивает рекордные 15 миллиардов долларов. А попутно, как стало известно только что, в апреле 2016, принято решение о засекречивании «Национальной военной доктрины США».

Никто не поясняет, естественно, с чем связано столь необычное обострение скрытности. Но наверняка имеет смысл обратить внимание на недавнее, в марте, публичное выступление замминистра обороны США Боба Ворка, посвященное будущему вооруженных сил вообще и автономным боевым роботам в частности.

Повторяя твердую линию высоких политиков – не говорить тут ни да, ни нет – Ворк еще раз отметил, что США не станут первыми применять автономные летальные системы на поле боя. Однако, под самый конец все равно не удержался и отпустил такую фразу: «Это нечто такое, что неизбежно, это все равно произойдет»…

Что имеем в итоге

Почему так получилось, уже не так важно, но всех людей с давних пор, очень упорно, с детства и до старости приучают воспринимать мир в категориях «мы и они». Причем одним из самых мощных якорей, привязывающих человека к понятию «мы», традиционно считается патриотизм: наш народ, наши традиции, наша земля.

Особенность нынешнего периода в истории человечества такова, что сегодня, благодаря инфотехнологиям и общедоступным цифровым коммуникациям, «нашей Землей» вдруг стал весь мир. А «наш народ», соответственно, это теперь население всей планеты. Оказавшейся, как выяснилось, довольно маленькой и хрупкой экосистемой для индустриальных и военных упражнений человечества.

Так что для подлинных патриотов, которым действительно дороги судьбы нашего народа, будущее наших детей и нашей Земли, имеет смысл хорошенько подумать вот над чем. А где теперь проходит та самая граница, по одну сторону которой находимся «мы-патриоты», а по другую – те самые «они», от которых вечно идут наши беды и проблемы?

Ведь действительно есть над чем поразмышлять…

Robot-n-war

# # #

Дополнительное чтение

Роботы на войне : В боевых действиях роботы применяются уже тысячами, однако никаких законов и правил на этот счет пока нет.

Беззаконие роботехники : Почему нет правил этичного поведения для роботов.

Об очень быстро прогрессирующих ныне компьютерных подсистемах, обобщенно именуемых «искусственным интеллектом»: Сцилла и Харибда ИИ   ;  Без права на ошибкуКуда идем?