Взгляд
19 марта, вторник  |  Последнее обновление — 19:38  |  vz.ru
Разделы

В чем причина материнского безумия

Анна Долгарева, журналист, поэт, военный корреспондент
Дискуссия о том, обладает ли душой эмбрион, стара как мир. Разумом, впрочем, точно не обладает. И жестоко, но факт: изъятый из тела женщины эмбрион не будет, корчась от жажды, есть стиральный порошок, ожидая мать, которая не придет. Подробности...

Скорбь по погибшим в Новой Зеландии превратили в дешевый трюк

Игорь Мальцев, писатель, журналист, публицист
Когда глава Германии Ангела Меркель соболезнует жертвам расстрела в Новой Зеландии, мы ее понимаем. Но мы помним, что в Берлине от теракта погибло 12 человек, и только спустя год Меркель нашла время и силы встретиться с родственниками жертв. Подробности...
Обсуждение: 10 комментариев

В Крыму был сделан выбор судьбы России

Андрей Медведев, Политический обозреватель
Множество моих знакомых – чиновники, креативный класс и бизнесмены – рассуждали, что лучше потерять Крым, чем возможность ездить за границу отдыхать, и курс доллара/евро куда важнее. Это все такая большая отечественная традиция. Подробности...
Обсуждение: 15 комментариев

    «Это был взрыв эмоций!» В Сочи чествовали победителей конкурса «Лидеры России»

    «Вы одержали главную победу: над своей слабостью, над своим страхом!» – напутствовал победителей состязания управленцев «Лидеры России» наставник конкурса, первый замглавы администрации президента Сергей Кириенко (на фото Кириенко поздравляет с победой москвичку Александру Добрынину)
    Подробности...

    В мечетях Новой Зеландии расстреляли десятки людей

    Новая Зеландия пережила один из самых страшных терактов в своей истории. В пятницу несколько человек совершили вооруженное нападение на мечети городка Кристчерч. Убиты полсотни верующих, десятки получили ранения. Главный подозреваемый Брентон Таррант транслировал бойню в Сети
    Подробности...

    Отчеканены пять рублей с Крымским мостом

    Банк России выпустил в обращение памятную монету номиналом 5 рублей, посвященную пятой годовщине референдума о государственном статусе Крыма и Севастополя и воссоединения Крыма с Россией
    Подробности...

        НОВОСТЬ ЧАСА:Банк России назвал самые теневые секторы экономики

        Главная тема


        Американских солдат сделают менее мужественными

        президент казахстана


        Назарбаев объявил об отставке

        боевая авиация


        Путин назвал лучший военный самолет в мире

        Главный редактор RT


        Симоньян объявила о беременности

        Видео

        расследование катастрофы


        Новые подробности меняют картину гибели Ту-154 под Сочи

        возрождение дивизий


        Как и зачем меняется структура российской армии

        бывший президент Грузии


        Саакашвили выдал «военную тайну Кремля»

        реабилитация нацизма


        Как бороться с украинским подлогом советской истории

        «русская весна»


        Пять послекрымских лет сделали Россию сильнее

        Свобода слова


        Андрей Бабицкий: Я убил себя во время Крымской весны

        Социализм XXI века


        Борис Кагарлицкий: В Латинской Америке назрел новый левый поворот

        Полеты в космос


        Екатерина Ракитина: Семинарист, который стал советским фантастом

        на ваш взгляд


        Зарплата в 250 тысяч рублей в месяц достойна командира подводной лодки?

        Военные роботы избавят от убийства на поле боя

        Военные роботы из фантастических фильмов постепенно становятся реальностью   16 декабря 2018, 09:58
        Фото: «Робот по имени Чаппи», Columbia Pictures
        Текст: Владимир Добрынин

        Версия для печати  •
        В закладки  •
        Постоянная ссылка  •
          •
        Сообщить об ошибке  •

        Человечество все ближе к созданию полностью автономных боевых машин – роботов. Их задачей будет самостоятельно принимать решение о поражении цели на поле боя. Вокруг таких перспектив ведутся не только технические, но и этические споры. И некоторые берутся утверждать, что боевые роботы не увеличат, а резко уменьшат количество человеческих потерь во время войны. Каким образом?

        Би-би-си сообщает, что вооруженные силы Соединенного Королевства провели самые крупные в своей истории маневры с применением так называемого автономного оружия. Как утверждается, «военные отрабатывали атаки, в которых участвовала живая сила при поддержке дронов и танков с дистанционным управлением».

        Строго говоря, «танки с дистанционным управлением» – еще не то самое автономное оружие, снабженное своим собственным интеллектом, позволяющим машине принимать решения самостоятельно, без каких-либо приказов, поступающих с расположенного на удалении от поля боя командного пункта. Но можно считать их промежуточным вариантом, переходной моделью или последним шагом к «умным вооружениям».

        В том, что военные устройства смогут вскоре принимать собственные решения без контроля человека, сомнений, кажется, уже ни у кого не осталось. Поэтому и борьба сторонников и противников применения искусственного мозга в вооруженных конфликтах разгорается с каждым днем.

        Экспертов, которые говорят, что роботы могут подняться на войну против человечества, мы слышим почти ежедневно. Испанская La Vanguardia пишет, что сегодня, похоже, сбывается предвидение американского режиссера Стэнли Кубрика, высказанное им в пророческом фильме «2001: Космическая одиссея». В картине компьютер HAL 9000 решает атаковать экипаж космического корабля, в котором он установлен, чтобы люди не отключили компьютер.

        «Машина, самостоятельно выбирающая цели, которые нужно расстрелять, – это прыжок в неизвестное, чего большая часть человечества, похоже, не хочет понимать. Это обоюдоострая бритва, которая может причинить смертельный ущерб не только объекту, против которого она работает, но и своему создателю и командиру», – отмечают в комментариях для названной выше газеты специалисты в области компьютеризированной робототехники Хоакин Родригес и Розер Мартинес. Они входят в группу экспертов, которая под эгидой ООН готовит почву для разработки будущего международного договора против этого вида оружия.

        25 сентября 2018 года свое отношение к происходящему выразил даже генсек ООН Антониу Гутерриш: «Скажу все, как есть. Перспектива создания машин, способных уничтожать человеческие жизни, аморальна и отвратительна». Генсек выступил с опасениями, что технические достижения могут уничтожить человечество так же быстро и так же полно, как ядерное оружие. Для этого вооруженные системы «просто должны выйти из-под контроля человека или попасть в чужие руки». По мнению Гутерриша, «роботы-уничтожители – большая опасность».

        Автономное смертоносное оружие (Lethal Autonomous Weapons, сложившаяся общеупотребительная аббревиатура – LAWs, англ.) является результатом исследовательских работ по применению искусственного интеллекта для поиска решений в области военной конфронтации и ведению боевых действий. Известно, что существуют надводные и подводные суда, оборудованные LAWs, а также воздушные беспилотные летательные и автономные наземные аппараты, которые сами выбирают цели. Наземным в некоторых случаях придаются формы, сходные с человеческими.

        Закон об автономном оружии: запретить нельзя разрешить

        Вокруг предполагаемого закона о запрете разработки, создания и использования самообучающихся роботов в военном деле идут ожесточенные дискуссии специалистов-инженеров. Две основные группы – защитники закона и его противники. Обе постоянно дискутируют по проблемам разнообразного характера, но главным образом сосредоточены на трех темах, связанных с оружием, обладающим искусственным интеллектом: выживание человечества как вида; конфликты этического и морального характера; соответствие или несоответствие данного вида вооружений международному праву и правам человека.

        Уже несколько лет существуют автономные системы оружия, в которых вмешательство человеческого фактора в цепочку решений низкое или нулевое. Но до недавнего времени были проверены только защитные системы. Можно вспомнить, что на границе, разделяющей Северную и Южную Корею, установлены механизмы автоматической стрельбы по всему, что движется по земле. Или, например, так называемый «железный купол» – противоракетную систему Израиля, с помощью которой он должен нейтрализовать снаряды, запущенные из Газы по еврейским позициям. Солдаты, которые контролируют систему, только смотрят, чтобы компьютерная система не дала сбой.

        Cui prodest?

        Израиль, Франция, Южная Корея, Великобритания, Китайская Народная Республика, Российская Федерация и Соединенные Штаты Америки выступают против любого соглашения планетарного масштаба, которое налагает вето на исследования и разработку оружия с искусственным интеллектом.

        Нет необходимости иметь семь пядей во лбу, чтобы определить, почему. Названные страны в настоящий момент – не только лидеры по производству оружия, но главным образом впереди планеты всей по технологическим разработкам. И потому предложения отстающих в этом плане («а давайте все запретим, потому что мы такого сделать не сможем») не более чем желание уравнять все страны мира между собой не подтягиванием отсталых, а торможением передовых.

        Искусственный интеллект, предсказывают специалисты, в недалеком будущем обретет способность самообучаться. Исходя из этого, многие ученые полагают, что наступит момент, когда робот-убийца станет самостоятельно выбирать цели, посчитав заложенные в него человеком задачи и способы их исполнения «неинтересными и неправильными. Робот будет выбирать мишени на свое усмотрение, а оператор потеряет возможность в таком случае воздействовать на процесс принятия машиной решения».

        Сложно сказать, нечаянно или намеренно эта группа специалистов «забывает» о том, что всякая кибернетическая машина приводится в действие теми программами, что в нее заложены.

        Ну, не настолько же идиоты разработчики, чтобы создать программу, ориентированную на то, чтобы робот вдруг увлекся стрельбой по своим и полностью потерял интерес к истреблению противника?

        Чтобы робот «сошел с ума» и начал «гад, во своих пулять», как говорил в «Свадьбе в Малиновке» Попандопуло, может потрудиться враг: для достижения этого эффекта ему нужно проникнуть в компьютерные сети оппонента, найти нужные машины и загрузить в них соответствующий вирус. Для хакеров – не проблема. При соблюдении одного маленького условия (которое никогда не будет реализовано): система, условно говоря, противоракетной обороны должна иметь выход в интернет. Чтобы, значит, прямо из «Фейсбука» или с помощью реплики Трампа в «Твиттере»...

        Вот такой парадокс

        Конечно, с мнением Гуттериша насчет аморальности и отвратительности создания машин, способных уничтожать человеческие жизни, нельзя не согласиться. Но если подумать: изобретение оружия вообще – штука не слишком моральная. Каждая винтовка, автомат, система залпового огня и атомная бомба, в конце концов, изначально задумываются как инструмент убийства. И в этом смысле, рассматривая идею автономного оружия с этой точки зрения, приходишь к парадоксальному выводу. Принятие на вооружение таких установок дает возможность уменьшить человеческие потери – даже при обычной перестрелке.

        Сторонники LAWs (Lethal Autonomous Weapons) уверены, что применение этих систем уменьшит число человеческих жертв во время войн. Потому что роботам неведом страх, они не реагируют на истерию, раскручиваемую вокруг них, и у них не возникает желания отомстить.

        Но дело еще и в том, что за пулеметом или зениткой при таком раскладе человеку стоять (лежать) не приходится, а значит, уменьшается риск потери людей.

        Машины будут уничтожать другие машины, а не живых существ. Разве это – не благая цель?


        Смотрите ещё больше видео на YouTube-канале ВЗГЛЯД

        Вы можете комментировать материалы газеты ВЗГЛЯД, зарегистрировавшись на сайте RussiaRu.net. О редакционной политике по отношению к комментариям читайте здесь

         
         
        © 2005 - 2018 ООО Деловая газета «Взгляд»
        E-mail: information@vz.ru
        .masterhost
        В начало страницы  •
        Поставить закладку  •
        На главную страницу  •
        ..............