11 декабря, понедельник  |  Последнее обновление — 14:31  |  vz.ru
Разделы

Кто кого победил в двух мировых войнах

Дмитрий Дробницкий, политолог, американист
Бурная реакция наших политиков на рядовую, в общем-то, реплику Дональда Трампа о победе США в Первой мировой явно не соответствует ее значимости. Хуже то, что сейчас, в предновогоднюю пору, в наших торговых центрах звучит повсюду «Джингл беллз». Подробности...
Обсуждение: 15 комментариев

Рваный пакет оппозиции

Антон Крылов, журналист
У либералов вся консервативная оппозиция находится в огромном слепом пятне. Для них консерваторы – это «авангард провластных сил», «самые радикальные сторонники власти», «новые черносотенцы». В чем же причина этого слепого пятна? Подробности...
Обсуждение: 40 комментариев

Изображать жертву выгоднее, чем брать ответственность

Виктория Федотова, журналист
Пока одни полгода убивались, что премьера балета «Нуреев» об одном из самых талантливых советских танцоров перенесена на 2018 год, другие купили билеты на премьеру постановки Кирилла Серебренникова, намеченную на 9 и 10 декабря. Подробности...
Обсуждение: 76 комментариев

    Умер Леонид Броневой

    Артист театра и кино, полный кавалер ордена «За заслуги перед Отечеством» Леонид Сергеевич Броневой ушел из жизни на 89-м году жизни. Прощание с ним пройдет в понедельник в Большом зале «Ленкома». Власти Москвы уже заявили о готовности увековечить его память
    Подробности...

    Решение Трампа признать Иерусалим столицей Израиля взорвало исламский мир

    Заявление президента США Дональда Трампа о признании Иерусалима столицей Израиля арабский мир встретил протестами. На улицах Турции, Ливана, Иордании, Малайзии и Палестины прошли антиамериканские демонстрации, сопровождавшиеся беспорядками
    Подробности...

    В Ростове-на-Дону открылся аэропорт Платов

    В Аксайском районе Ростовской области открылся новый аэропорт Платов – первая новая авиагавань, появившаяся в России после 1991 года. С 7 декабря он начал прием и отправку регулярных и чартерных рейсов. Первым тут приземлился чартер авиакомпании «Победа» из Внуково
    Подробности...

        НОВОСТЬ ЧАСА:В Сирии оставят два пункта базирования российских военных

        Главная тема


        Схему борьбы с «врагами народа» в США довели до совершенства

        олимпиада в пхенчхане


        Российские спортсмены попросят МОК пересмотреть решение по статусу сборной

        брак и взятки


        Немецкие компании заподозрили в причастности к катастрофе подлодки «Сан-Хуан»

        «перестало «чморить»


        Михалков объявил о выходе российского кино из тяжелого кризиса

        «сам так всегда делаю»


        Советник главы МВД Украины поддержал вылизывание тарелки Антоном Геращенко

        итоги майдана


        Зрители украинского телеканала проголосовали за возвращение «преступной власти» Януковича

        «на колчаковских фронтах»


        Захарова ответила на заявления Запада по Сирии цитатой из «Собачьего сердца»

        позорное наследие


        Гаагский трибунал способен навредить России даже после своей смерти

        армия и вооружение


        Советские конструкторы нашли выход из «танкового тупика»

        урок ненависти


        Роман Носиков: Для нас началась новая реальность. Ее как-то еще не все осознали. Ничего – я помогу

        «в обмен на Олимпиаду»


        Лев Пирогов: До свидания, ласковый Мишка. Здравствуй, трезвость, здравствуйте, мозги

        победы американцев


        Дмитрий Дробницкий: Американский миф куда сильнее, чем это пытаются представить наши политики

        на ваш взгляд


        Сборную России отстранили от участия в Олимпийских играх - 2018. Должна ли наша страна в ответ бойкотировать Олимпиаду?

        Ученые предвидят скорое появление роботов-убийц

        Все ныне существующие системы так или иначе предполагают участие человека   28 июля 2015, 22:01
        Фото: Herwig Prammer/Reuters
        Текст: Роман Крецул, Денис Нижегородцев

        Версия для печати  •
        В закладки  •
        Постоянная ссылка  •
          •
        Сообщить об ошибке  •

        Исследования в области создания искусственного интеллекта в военной сфере должны быть ограничены – с таким призывом обратились к миру более тысячи ученых и изобретателей. Главное, что их беспокоит, – перспектива создания автономных систем, наделенных правом принимать решение об убийстве без участия человека. От всех остальных систем их отличает одно принципиальное обстоятельство.

        Более тысячи ученых, инженеров и бизнесменов со всего мира подписали письмо с призывом ввести запрет на использование автономных систем оружия, наделенных искусственным разумом. Среди них знаменитый британский теоретик и астрофизик Стивен Хокинг, американский изобретатель и бизнесмен Илон Маск, сооснователь Apple Стив Возняк, исполнительный директор Google DeepMind Демис Хассабис, лингвист Ноам Хомский.

        «Когда пилоту самолета или спецназовцу отдается приказ об уничтожении объекта, пилот и спецназовец тоже выступают в качестве интеллектуального оружия?»

        Письмо было обнародовано на проходящей в Буэнос-Айресе международной конференции по проблемам искусственного разума.

        «Развитие технологии искусственного разума достигло стадии, когда подобные системы могут быть размещены на носителях в течение уже ближайших нескольких лет. Опасность велика, так как подобные автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия», – говорится в документе.

        Авторы письма не призывают запретить в целом разработки технологий искусственного разума для оборонной промышленности, но, по их мнению, эти технологии не должны быть автономными и наделяться функцией самостоятельного принятия решений.

        «Если ведущие военные державы продолжат разработки систем оружия с искусственным разумом, то мировая гонка вооружений станет неизбежной. Результат ее можно предсказать уже сейчас: автономное оружие станет таким же обыденным завтра, как автомат Калашникова сегодня», – подчеркивается в документе.

        Автономная система, в отличие от автоматизированной, вообще не предполагает участия человека. До создания автономного оружия, по мнению экспертов, еще далеко. Тем не менее и на нынешнем уровне развития технологий ученые высказывают ряд опасений: команда на уничтожение человека на Ближнем Востоке может быть отдана офицером, находящимся в своем кабинете в США. И уровень осознания того, что он делает, у оператора БПЛА может весьма сильно отличаться от того, что есть у бойца, находящегося на передовой. Отдельной проблемой является возможное использование беспилотников без маркировки в интересах спецслужб.

        Полностью исключить ошибку нельзя ни в автономной системе, ни в автоматизированной, однако в последнем случае по крайней мере можно найти того, кто отвечает за последствия ошибки.

        «Разведывательно-ударные беспилотные системы являются автоматизированными системами. Вопрос идентификации целей, решение о применении оружия остаются за человеком, – сказал газете ВЗГЛЯД эксперт по беспилотным летательным аппаратам Денис Федутинов. – И можно найти конкретного человека, который принял то или иное решение. И в случае ошибки есть ответственный. Если мы переложим этот вопрос на автоматические системы, персоналий не будет. Я считаю, это совершенно преждевременно. По крайней мере в обозримой перспективе эти функции должны оставаться за человеком».

        Он подчеркнул, что в развитии БПЛА сейчас происходит повышение доли автоматически или автоматизируемо реализуемых задач. «В настоящее время здесь речь идет об автоматизации этапов взлета-посадки, обнаружения целей, их идентификации и сопровождения. В перспективе также будут ставиться задачи автоматического поражения целей, при одиночных действиях и действиях в группе с другими пилотируемыми и беспилотными летательными аппаратами. Это должно продолжить сокращение времени цикла «обнаружение – поражение», повысив эффективность действий соответствующих систем. Между тем сейчас наблюдаются нередкие ошибки в идентификации целей, что нередко приводит к жертвам среди мирного населения. Подобные ошибки наверняка пусть и в меньшем объеме, но сохранятся в ближайшей перспективе», – сказал эксперт. 

        Как рассказал газете ВЗГЛЯД эксперт по робототехнике, советник общероссийской программы «Робототехника: инженерно-технические кадры России» Алексей Корнилов, вопрос о создании и применении такого оружия обсуждается не один год. «Но, на мой взгляд, проблема не в робототехнике», – сказал эксперт.

        Корнилов отметил, что общепризнанного определения, что такое искусственный интеллект, на данный момент нет. Поэтому специалисты в разных областях договариваются и принимают соответствующие определения только для своих узких сфер.

        Касаясь оружия с искусственным интеллектом, специалист пояснил, что «чаще всего под этим понимается некая система, которая может сама принимать решение об уничтожении или о причинении ущерба тому или иному объекту».

        «Те системы, которые сейчас есть, не дотягивают (в интеллектуальном плане – прим. ВЗГЛЯД) даже до уровня насекомых, например пчелы, не говоря уже о собаке. Но если мы вспомним, что древние скифы, воюя с персами, сбрасывали на врага ульи с пчелами, или сейчас мы посылаем собаку за человеком, предполагая, что он преступник, хотя он может им и не быть, в этих случаях также используется интеллектуальное оружие?» – рассуждает он.

        Другой пример: когда пилоту самолета или спецназовцу отдается приказ об уничтожении объекта, пилот и спецназовец тоже выступают в качестве интеллектуального оружия?

        «Технически очень легко поставить на шасси орудие и сделать его телеуправляемым. И также мы можем наделить систему дополнительными функциями. Например, сделать ее не просто радиоуправляемой, а способной выполнять ряд самостоятельных действий – проехать из пункта А в пункт Б и прислать оператору по пути картинку того, что там происходит. И если он заметит нечто опасное, он прикажет системе открыть огонь. Следующим этапом мы могли бы наделить эту машинку и функциями поиска опасного объекта. Она скажет оператору: вот посмотри, в этом месте я видела какое-то движение, я предполагаю, что этот объект опасен и лучше его уничтожить. После чего оператор отдаст команду на уничтожение. Наконец, можно прописать для машины такой алгоритм действий, чтобы она сама, без оператора определяла потенциальную опасность и сама открывала огонь», – рассказал эксперт.

        При этом он считает некорректным говорить о машинах и роботах как несущих угрозу людям. Как и в случае с собакой, ответственность несет человек, который отдает ей команду, на кого бросаться.

        «Это не функция искусственного интеллекта... Так же можно сказать о турникете в метро, что он им обладает. Он же тоже должен «соображать», пропустить вас или нет, учитывая ряд обстоятельств, например внесли ли вы плату. И тут то же самое», – считает Корнилов.

        Резюмируя, эксперт рассказал, что современное состояние науки технически позволяет сделать очень опасными самые разные вещи. При этом само по себе развитие технологий не создает человечеству проблем, а только может обострить те противоречия, какие уже есть. Винить технологии в чем-то глупо. Рассматриваемый вопрос «не технический».

        Опасения, связанные с бесконтрольным развитием автономных систем, ученые высказывают регулярно. Два года назад спецдокладчик ООН по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях Кристоф Хайнс призвал ввести повсеместный мораторий на производство летальных автономных роботизированных систем (Lethal autonomous robotics – LARS).

        Эксперт рекомендовал призвать страны «ввести на национальном уровне мораторий на производство, сборку, передачу, приобретение, внедрение и использование LARS», пока применительно к этому виду вооружения не будут разработаны международные нормы. Использование подобных роботов у Хайнса «вызывает вопросы, имеющие далеко идущие последствия в том, что касается защиты жизни в условиях войны и мира».

        Сейчас, подчеркнул спецдокладчик, таких правовых рамок не существует, поэтому не ясно, можно ли запрограммировать машины так, «что они будут действовать в соответствии с нормами международного гуманитарного права», особенно в том, что касается определения различий между военными и гражданскими лицами.

        Помимо этого, заметил эксперт, «невозможно разработать сколько-нибудь адекватную систему правовой ответственности» при использовании автономных роботов. «В то время как в случае с беспилотными летательными аппаратами человек принимает решение, когда начать огонь на поражение, в LARS бортовой компьютер решает, в кого целиться», – сказал он.

        В 2012 году правозащитная организация Human Rights Watch опубликовала 50-страничный доклад под названием «Теряя человечность: Аргументы против роботов», в котором предупредила об опасности создания полностью автоматизированного вооружения. Доклад, составленный Human Rights Watch совместно с Гарвардской школой права, призывал отдельные государства разработать международный договор, который бы полностью запретил производство и использование роботизированного вооружения.

        Правозащитники отметили, что автономного боевого оружия пока не существует и до принятия его на вооружение еще далеко, однако военные в некоторых странах, к примеру в США, уже представили прототипы, которые воплощают значительный прорыв к созданию «машин-убийц».

        В докладе отмечается, что США лидируют в этой гонке, кроме того, в нее вовлечены некоторые другие страны, в том числе Китай, Германия, Израиль, Южная Корея, Россия и Великобритания.

        По мнению многих специалистов, к полной автономии боевых машин странам придется идти от 20 до 30 лет.


        Вы можете комментировать материалы газеты ВЗГЛЯД, зарегистрировавшись на сайте RussiaRu.net. О редакционной политике по отношению к комментариям читайте здесь

         
         
        © 2005 - 2017 ООО Деловая газета «Взгляд»
        E-mail: information@vz.ru
        .masterhost Apple iTunes Google Play
        В начало страницы  •
        Поставить закладку  •
        На главную страницу  •
        ..............