29 июня, среда  |  Последнее обновление — 13:51  |  vz.ru

Главная тема


Российские дети застряли в Турции из-за теракта

40 минут


Стали известны подробности разговора Путина с Эрдоганом

«под действием эмоций»


Олланд прокомментировал «унижение» Кэмерона на саммите ЕС

солист Парижской оперы


Воевавший за «Правый сектор» украинский оперный певец Слипак убит в Донбассе

опасное сближение


Пентагон выступил с обвинениями в адрес России по поводу инцидента в Средиземном море

«с треском провалил»


Захарова заявила о профнепригодности Макфола

«мы договорились»


Порошенко рассказал о звонке Эрдогана в Киев перед отправкой письма Путину

«смягчить боль семьи»


Турция ставит условия компенсации за гибель летчика Су-24

ради безопасности


Ле Пен потребовала немедленно отменить Шенген

«миссия СССР»


Илья Козырев: Как Сталин в Прибалтике демократию продвигал

Вопрос дня


Эрдоган принес извинения за сбитый российский бомбардировщик. Изменило ли это ваше отношение к Турции?

Судный день терминатора

Эксперт ООН призвал мировое сообщество притормозить создание боевых роботов с искусственным интеллектом

31 мая 2013, 08:58

Текст: Андрей Резчиков

Версия для печати

В Совете ООН по правам человека предложили временно запретить производство боевых автономных роботов, способных самостоятельно принимать решение об уничтожении живых мишеней. Эксперты уверены, что если не сдерживать развитие подобных технологий, то через 30 лет стоит ожидать гибели множества людей от рук «немного сбившихся в один момент с программы роботов».

В четверг спецдокладчик ООН по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях Кристоф Хайнс призвал ввести повсеместный мораторий на производство летальных автономных роботизированных систем (Lethal autonomous robotics – LARS).

Хайнс представил соответствующий доклад на проходящей в эти дни сессии Совета ООН по правам человека (СПЧ). Эксперт рекомендовал призвать страны «ввести на национальном уровне мораторий на производство, сборку, передачу, приобретение, внедрение и использование LARS», пока применительно к этому виду вооружения не будут разработаны международные нормы. Как сообщает ИТАР-ТАСС, использование подобных роботов у Хайнса «вызывает вопросы, имеющие далеко идущие последствия в том, что касается защиты жизни в условиях войны и мира».

Сейчас, подчеркнул спецдокладчик, таких правовых рамок не существует, поэтому неясно, можно ли запрограммировать машины так, «что они будут действовать в соответствии с нормами международного гуманитарного права», особенно в том, что касается определения различий между военными и гражданскими лицами.

Помимо этого, заметил эксперт, «невозможно разработать сколько-нибудь адекватную систему правовой ответственности» при использовании автономных роботов. «В то время как в случае с беспилотными летательными аппаратами человек принимает решение, когда начать огонь на поражение, в LARS бортовой компьютер решает, в кого целиться», – сказал Хайнс.

«Мир должен взять паузу»

Докладчик убежден, что «война без раздумий – это механическая бойня», именно поэтому «мир должен взять паузу» в разработках технологий, позволяющих машинам убивать людей. Хайнс констатировал, что, хотя автономные роботы пока не приняты на вооружение, системы с различной степенью автономности и смертоносной силы уже используются армиями США, Израиля, Великобритании и Южной Кореи. Эксперт уверены, что над созданием боевых роботов работают также в Китае, Германии, Великобритании и России.

Хайнс упоминает, что в США, например, совершенствуется один из современных вариантов LARS – системы автоматической защиты кораблей от ракет и самолетов Phalanx, а в Израиле – беспилотники Harpy для борьбы с радиолокационными установками. Единственное, что Хайнс увидел в роботах-убийцах положительного, так это отсутствие эмоций: в отличие от живых солдат, они не будут мстить, насиловать или пытать. Среди рекомендаций Хайнса – создание международного органа для регуляции политики в отношении таких систем. Также в докладе предлагается написать этический кодекс разработчика таких систем.

Пока пафос Хайнса разделяют только правозащитники. Еще полгода назад Human Rights Watch и Гарвардская школа права подготовили свой доклад с предупреждением о том, что подобные роботы могут начать убивать ни в чем не повинных людей. Правда, по их мнению, на появление соответствующих разработок уйдет от 20 до 30 лет.

Пришествие терминаторов

Опрошенные газетой ВЗГЛЯД российские эксперты сходятся во мнении, что остановить создание таких роботов все равно не удастся, появятся они гораздо раньше. По их предположению, на будущем поле боя будут воевать исключительно роботы с искусственным интеллектом.

Главный редактор интернет-портала UAV.ru Денис Федутинов отмечает, что в той или иной мере автоматизированные системы способны принимать решение без участия человека и сейчас. Он напомнил про демонстрацию американцами самостоятельного взлета боевого беспилотника с авиапалубы. «Прогресс идет очень быстро. Это в какой-то мере автоматизированные системы, но при этом пока остается контроль со стороны человека», – сказал Федутинов газете ВЗГЛЯД.

Однако, по его словам, ключевой вопрос роботизированных систем пока открыт. «Прогресс идет очень быстро. Но в то же время есть критический вопрос, о который ломаются копья: оставить ли за человеком некоторые специфические задачи, в том числе применения оружия», – отметил эксперт.

По его словам, кроме беспилотников и другие виды вооружений в будущем могут стать автономными, в том числе способными сами открывать огонь по людям. «Есть различные сухопутные системы. Есть надводные и подводные системы. Проводятся эксперименты по установке оружия на них. Но мне неизвестно о случаях реального применения такого оружия», – признался Федутинов.

По мнению профессора Академии военных наук, директора проекта по обычным вооружениям и МДТО ПИР-Центра Вадима Козюлина, Хайнс в своем докладе, по сути, говорит о проблеме искусственного интеллекта, который будет сам проводить анализ и принимать решение. «Искусственный интеллект не создан, но работы ведутся. Сегодня это на грани фантастики, трудно сказать, что будет через 20–30 лет», – сказал Козюлин газете ВЗГЛЯД.

При этом эксперт подчеркнул, что и сейчас в машину можно ввести алгоритм, позволяющий принимать решение без участия человека. Он напомнил о разрабатывавшейся в 1970-е годы в СССР системе «Мертвая рука» (система 15Э601 «Периметр»), предназначенной для автоматического ответного ядерного удара. «Система должна была понять по определенным признакам, что давать команду ей некому, и она сама принимала решение наносить ответный ядерный удар по США... Это можно воспроизвести в каком-то другом виде уже сегодня», – отметил эксперт.

Главный редактор журнала «Национальная оборона» Игорь Коротченко сказал газете ВЗГЛЯД, что в СССР и в России, кроме «Мертвой руки», боевых систем с интеллектом и не разрабатывалось. «А беспилотники наши в зачаточном состоянии. В России роботов, о которых идет речь, к сожалению, нет. И перспективы очень отдаленные. Наши роботы используются исключительно как вспомогательные средства, например, при разминировании, дистанционном зондировании объектов», – отметил он.

«Космические корабли – убийцы спутников»

Козюлин напомнил, что при подготовке Международного договора о торговле оружием (МДТО), ратификация которого в ООН намечена на 3 июня, обсуждались и беспилотные системы, однако они в итоге «были вынесены за скобки под предлогом, что договор не касается их напрямую». «Фактически беспилотники сегодня остаются за рамками, всерьез не обсуждается законодательство об урегулировании этого вопроса, не говоря про такую тему, как самостоятельное принятие решений этими машинами о нанесении удара», – указал эксперт.

Козюлин не исключил существование подобных программ и в космосе, несмотря на существующий запрет его милитаризации. «Какие-то определенные разработки имеются. Советские были точно, и американские в тот период – дистанционные космические корабли – убийцы спутников», – рассказал эксперт.

«Появляется некое движение за установление определенных рамок и международного контроля над этой сферой. Скорее всего, в ООН будут вынесены предложения для принятия международного договора, регулирующего беспилотную технику. Думаю, что это может произойти довольно скоро после принятия МДТО», – предполагает Козюлин.

Этический кодекс строителя роботов

Телеведущий и футуролог, популяризатор науки Данила Медведев не сомневается, что предотвратить будущее, когда воевать будут одни роботы, не удастся, произойдет это гораздо скорее, чем пишут эксперты Гарварда. «Уже сейчас существуют практически готовые технологии, вопрос только в том, какие дают этим системам полномочия», – сказал Медведев газете ВЗГЛЯД.

Медведев предположил, что уже через пять лет ни один американский генерал не будет в состоянии руководить подразделениями во время боя, это за него будет делать компьютер.

Он подчеркнул, что роботизированные разработки ведутся практически во всех военных сферах.

«Это все виды летательных аппаратов. Корабли, которые могут ходить самостоятельно из одного порта в другой. Есть автомобили, способные также перемещаться по пересеченной местности, их разрабатывают специально для военных. Есть шагающие роботы, в том числе двуногие, очень похожие на человека. Они могут взять обычную винтовку М-16 и убивать. Это уже реальность», – заверил Медведев.

Помимо этого, по словам футуролога, уже сейчас есть множество гусеничных роботов различного толка: для разминирования и разведки. «Есть крошечные беспилотники для наблюдения. Все, что существует, оно все так или иначе автоматизировано. Любые артиллерийские орудия тоже давно автоматизированы. Они связаны в информационную систему. Если взять современный военный корабль, то капитан может отдавать приказы, как в компьютерной игре, показывая на мониторе, куда надо стрелять. Скоро эта система будет доведена до идеала, такой корабль сможет также воевать самостоятельно», – перечислил Медведев.

Если не сдерживать развитие подобных технологий, не исключает Медведев, то через 30 лет «стоит ожидать полномасштабной гибели человечества от рук роботов». При этом, в отличие от Хайнса, Медведев призвал создать не столько этический кодекс для разработчиков, сколько политический кодекс для государственных деятелей, в первую очередь американских.

«Виноваты не разработчики, а политики, которые выделяют огромные деньги на исследования. Они покупают разработчиков. Получающему миллионы долларов от Пентагона ученому трудно сохранить свои моральные качества», – подытожил эксперт.


Вы можете комментировать материалы газеты ВЗГЛЯД, зарегистрировавшись на сайте RussiaRu.net. О редакционной политике по отношению к комментариям читайте здесь

 
 
© 2005 - 2016 ООО Деловая газета «Взгляд»
E-mail: information@vz.ru
.masterhost Apple iTunes Google Play
В начало страницы  •
Поставить закладку  •
На главную страницу  •
..............