Взгляд
20 января, понедельник  |  Последнее обновление — 21:31  |  vz.ru
Разделы

Чиновников переведут из разряда «бизнес» в разряд «служение»

Игорь Мальцев, писатель, журналист, публицист
Надоело не только Путину. Надоело простому народу смотреть на этот бесконечный фестиваль компрадорства. Что тебя, болезный, так тянет в Европу? Ответа всего два: или ты более лоялен к стране – потенциальному противнику, или прячешь наворованное там же. Подробности...
Обсуждение: 30 комментариев

Память о Второй мировой работает только по-честному

Алексей Алешковский, сценарист
Лидеры современного польского еврейства пожелали российским властям честности – с учетом того, что «СССР начал войну как союзник Германии, чтобы позже превратиться в ее главную жертву». Забавно, что эта фраза точнее всего описывает судьбу их страны. Подробности...
Обсуждение: 15 комментариев

Поправка в Конституцию исправляет последствия холодной войны

Герман Садулаев, писатель, публицист
Либералы учили нас, что приоритет международных договоров над внутренними нормами – это нормальная, «общечеловеческая» практика. Однако во флагмане «общечеловеческой» цивилизации, США, никакого примата международных норм над американскими нет. Подробности...
Обсуждение: 63 комментария

    Новый терминал в стиле конструктивизма открылся в Шереметьево

    В крупнейшем московском аэропорту Шереметьево открылся пятый по счету терминал – C1. Он пристроен к терминалу В и способен обслуживать до 20 млн пассажиров в год. В итоге пропускная способность аэропорта вырастет до 80 млн человек
    Подробности...

    Извержение вулкана Тааль на Филиппинах

    12 января на Филиппинах начал извергаться вулкан Тааль, расположенный посреди одноименного озера в 100 километрах от столицы страны Манилы. В результате местные сейсмологи объявили четвертый, предпоследний, уровень опасности
    Подробности...

    Австралию охватили неукротимые лесные пожары

    Австралию охватили самые мощные за всю историю страны лесные пожары – их площадь составляет уже 10 миллионов гектаров. Это стало результатом рекордной засухи, притом что обычно этот сезон приходится на декабрь – март. 28 человек погибли, среди них трое пожарных, разрушено около шести тысяч зданий. Ущерб экономике страны оценивается в 3 млрд долларов США
    Подробности...

        НОВОСТЬ ЧАСА:В Boeing 737 MAX выявлена новая неисправность

        Главная тема


        Генпрокуратуру возглавит охотник на серийных убийц

        инициатива президента


        Путин внес в Госдуму проект поправок к Конституции

        ракетоопасное направление


        Россия удвоила число засекающих гиперзвуковые ракеты РЛС в Арктике

        соглашение о перемирии


        Стало известно о странном поведении Хафтара на берлинской конференции

        Видео

        поставки газа


        Германия начала сражение за «Северный поток – 2»

        «демографический пакет»


        Путин вступился за семьи перед «моральными уродами»

        300-летняя уния


        Запущен процесс развала Британии

        «принципы децентрализации»


        Меркель перевела Украину на ручное управление

        Общечеловеческая практика


        Герман Садулаев: Поправка в Конституцию исправляет последствия холодной войны

        Еврейская проблема


        Алексей Алешковский: Память о Второй мировой работает только по-честному

        Всем надоело


        Игорь Мальцев: Чиновников переведут из разряда «бизнес» в разряд «служение»

        викторина


        Как отмечают Новый год народы России?

        на ваш взгляд


        Готовы ли вы участвовать во всероссийском голосовании по внесению поправок в Конституцию?

        Военные роботы избавят от убийства на поле боя

        Военные роботы из фантастических фильмов постепенно становятся реальностью   16 декабря 2018, 09:58
        Фото: «Робот по имени Чаппи», Columbia Pictures
        Текст: Владимир Добрынин

        Версия для печати  •
        В закладки  •
        Постоянная ссылка  •
          •
        Сообщить об ошибке  •

        Человечество все ближе к созданию полностью автономных боевых машин – роботов. Их задачей будет самостоятельно принимать решение о поражении цели на поле боя. Вокруг таких перспектив ведутся не только технические, но и этические споры. И некоторые берутся утверждать, что боевые роботы не увеличат, а резко уменьшат количество человеческих потерь во время войны. Каким образом?

        Би-би-си сообщает, что вооруженные силы Соединенного Королевства провели самые крупные в своей истории маневры с применением так называемого автономного оружия. Как утверждается, «военные отрабатывали атаки, в которых участвовала живая сила при поддержке дронов и танков с дистанционным управлением».

        Строго говоря, «танки с дистанционным управлением» – еще не то самое автономное оружие, снабженное своим собственным интеллектом, позволяющим машине принимать решения самостоятельно, без каких-либо приказов, поступающих с расположенного на удалении от поля боя командного пункта. Но можно считать их промежуточным вариантом, переходной моделью или последним шагом к «умным вооружениям».

        В том, что военные устройства смогут вскоре принимать собственные решения без контроля человека, сомнений, кажется, уже ни у кого не осталось. Поэтому и борьба сторонников и противников применения искусственного мозга в вооруженных конфликтах разгорается с каждым днем.

        Экспертов, которые говорят, что роботы могут подняться на войну против человечества, мы слышим почти ежедневно. Испанская La Vanguardia пишет, что сегодня, похоже, сбывается предвидение американского режиссера Стэнли Кубрика, высказанное им в пророческом фильме «2001: Космическая одиссея». В картине компьютер HAL 9000 решает атаковать экипаж космического корабля, в котором он установлен, чтобы люди не отключили компьютер.

        «Машина, самостоятельно выбирающая цели, которые нужно расстрелять, – это прыжок в неизвестное, чего большая часть человечества, похоже, не хочет понимать. Это обоюдоострая бритва, которая может причинить смертельный ущерб не только объекту, против которого она работает, но и своему создателю и командиру», – отмечают в комментариях для названной выше газеты специалисты в области компьютеризированной робототехники Хоакин Родригес и Розер Мартинес. Они входят в группу экспертов, которая под эгидой ООН готовит почву для разработки будущего международного договора против этого вида оружия.

        25 сентября 2018 года свое отношение к происходящему выразил даже генсек ООН Антониу Гутерриш: «Скажу все, как есть. Перспектива создания машин, способных уничтожать человеческие жизни, аморальна и отвратительна». Генсек выступил с опасениями, что технические достижения могут уничтожить человечество так же быстро и так же полно, как ядерное оружие. Для этого вооруженные системы «просто должны выйти из-под контроля человека или попасть в чужие руки». По мнению Гутерриша, «роботы-уничтожители – большая опасность».

        Автономное смертоносное оружие (Lethal Autonomous Weapons, сложившаяся общеупотребительная аббревиатура – LAWs, англ.) является результатом исследовательских работ по применению искусственного интеллекта для поиска решений в области военной конфронтации и ведению боевых действий. Известно, что существуют надводные и подводные суда, оборудованные LAWs, а также воздушные беспилотные летательные и автономные наземные аппараты, которые сами выбирают цели. Наземным в некоторых случаях придаются формы, сходные с человеческими.

        Закон об автономном оружии: запретить нельзя разрешить

        Вокруг предполагаемого закона о запрете разработки, создания и использования самообучающихся роботов в военном деле идут ожесточенные дискуссии специалистов-инженеров. Две основные группы – защитники закона и его противники. Обе постоянно дискутируют по проблемам разнообразного характера, но главным образом сосредоточены на трех темах, связанных с оружием, обладающим искусственным интеллектом: выживание человечества как вида; конфликты этического и морального характера; соответствие или несоответствие данного вида вооружений международному праву и правам человека.

        Уже несколько лет существуют автономные системы оружия, в которых вмешательство человеческого фактора в цепочку решений низкое или нулевое. Но до недавнего времени были проверены только защитные системы. Можно вспомнить, что на границе, разделяющей Северную и Южную Корею, установлены механизмы автоматической стрельбы по всему, что движется по земле. Или, например, так называемый «железный купол» – противоракетную систему Израиля, с помощью которой он должен нейтрализовать снаряды, запущенные из Газы по еврейским позициям. Солдаты, которые контролируют систему, только смотрят, чтобы компьютерная система не дала сбой.

        Cui prodest?

        Израиль, Франция, Южная Корея, Великобритания, Китайская Народная Республика, Российская Федерация и Соединенные Штаты Америки выступают против любого соглашения планетарного масштаба, которое налагает вето на исследования и разработку оружия с искусственным интеллектом.

        Нет необходимости иметь семь пядей во лбу, чтобы определить, почему. Названные страны в настоящий момент – не только лидеры по производству оружия, но главным образом впереди планеты всей по технологическим разработкам. И потому предложения отстающих в этом плане («а давайте все запретим, потому что мы такого сделать не сможем») не более чем желание уравнять все страны мира между собой не подтягиванием отсталых, а торможением передовых.

        Искусственный интеллект, предсказывают специалисты, в недалеком будущем обретет способность самообучаться. Исходя из этого, многие ученые полагают, что наступит момент, когда робот-убийца станет самостоятельно выбирать цели, посчитав заложенные в него человеком задачи и способы их исполнения «неинтересными и неправильными. Робот будет выбирать мишени на свое усмотрение, а оператор потеряет возможность в таком случае воздействовать на процесс принятия машиной решения».

        Сложно сказать, нечаянно или намеренно эта группа специалистов «забывает» о том, что всякая кибернетическая машина приводится в действие теми программами, что в нее заложены.

        Ну, не настолько же идиоты разработчики, чтобы создать программу, ориентированную на то, чтобы робот вдруг увлекся стрельбой по своим и полностью потерял интерес к истреблению противника?

        Чтобы робот «сошел с ума» и начал «гад, во своих пулять», как говорил в «Свадьбе в Малиновке» Попандопуло, может потрудиться враг: для достижения этого эффекта ему нужно проникнуть в компьютерные сети оппонента, найти нужные машины и загрузить в них соответствующий вирус. Для хакеров – не проблема. При соблюдении одного маленького условия (которое никогда не будет реализовано): система, условно говоря, противоракетной обороны должна иметь выход в интернет. Чтобы, значит, прямо из «Фейсбука» или с помощью реплики Трампа в «Твиттере»...

        Вот такой парадокс

        Конечно, с мнением Гуттериша насчет аморальности и отвратительности создания машин, способных уничтожать человеческие жизни, нельзя не согласиться. Но если подумать: изобретение оружия вообще – штука не слишком моральная. Каждая винтовка, автомат, система залпового огня и атомная бомба, в конце концов, изначально задумываются как инструмент убийства. И в этом смысле, рассматривая идею автономного оружия с этой точки зрения, приходишь к парадоксальному выводу. Принятие на вооружение таких установок дает возможность уменьшить человеческие потери – даже при обычной перестрелке.

        Сторонники LAWs (Lethal Autonomous Weapons) уверены, что применение этих систем уменьшит число человеческих жертв во время войн. Потому что роботам неведом страх, они не реагируют на истерию, раскручиваемую вокруг них, и у них не возникает желания отомстить.

        Но дело еще и в том, что за пулеметом или зениткой при таком раскладе человеку стоять (лежать) не приходится, а значит, уменьшается риск потери людей.

        Машины будут уничтожать другие машины, а не живых существ. Разве это – не благая цель?


        Подпишитесь на ВЗГЛЯД в Яндекс-Новостях

        Вы можете комментировать материалы газеты ВЗГЛЯД, зарегистрировавшись на сайте RussiaRu.net. О редакционной политике по отношению к комментариям читайте здесь

         
         
        © 2005 - 2018 ООО Деловая газета «Взгляд»
        E-mail: information@vz.ru
        .masterhost
        В начало страницы  •
        Поставить закладку  •
        На главную страницу  •
        ..............