19 октября, четверг  |  Последнее обновление — 04:43  |  vz.ru
Разделы

Денис Селезнев: Украинцы отреклись от Майдана

Очередные массовые гулянья в Киеве вызывают пристальное внимание. Внешние наблюдатели спешат назвать происходящее Майданом вслед за самими участниками. Имеют ли нынешние беспорядки перспективу перерасти в нечто более серьезное? Подробности...
Обсуждение: 8 комментариев

Олег Бондаренко: «Покаяние» режиссера Быкова и борьба за культурный суверенитет

Будучи знаком с Юрой Быковым, хотел бы защитить режиссера. Да, он поддался колоссальному прессингу, который на него обрушился, и не смог проявить устойчивость. Но скажите мне – а на кого ему опереться в этой ситуации? Подробности...
Обсуждение: 10 комментариев

Андрей Бабицкий: Мы на горе всем буржуям…

Многие считают, что Павленского следует уважать за последовательность, которую он проявил, косвенным образом выразив неуважение своим почитателям из лагеря российских либералов. Это верная точка зрения. Подробности...
Обсуждение: 36 комментариев

    Марш бандеровцев по случаю юбилея УПА прошел в Киеве

    В Киеве в субботу прошел неонацистский «Марш славы героев». Он был приурочен к 75-й годовщине создания Украинской повстанческой армии (УПА), которая несет ответственность за многочисленные военные преступления, в частности, за «Волынскую резню» 1943 года. Этот день официально объявлен Днем защитника Отечества на Украине
    Подробности...
    Обсуждение: 14 комментариев

    В Москве прошел международный студенческий парад

    В Москве состоялся торжественный парад в честь XIX Всемирного фестиваля молодежи и студентов. Более 35 тыс. молодых россиян и сотни делегатов из разных стран прошли по центральным улицам столицы
    Подробности...

    Лесные пожары в Калифорнии унесли жизни 31 человека, более 400 пропали без вести

    В Калифорнии уже неделю бушуют лесные пожары. По последним данным, погиб 31 человек, сотни числятся пропавшими без вести. Полностью выгорело более 3,5 тыс. зданий. Площадь, охваченная огнем, на сегодня достигает почти 100 тыс. гектаров. И это несмотря на усилия более чем 8 тыс. пожарных. До многих районов спасатели добраться до сих пор не смогли. Поэтому не исключено, что число жертв будет расти
    Подробности...
    Обсуждение: 6 комментариев

        НОВОСТЬ ЧАСА:В убийстве четырех военных США в Нигере заподозрили присягнувших ИГ боевиков

        Главная тема


        Герхард Манготт: Лидеры всех партий Австрии уже вслух говорят, что Крым – часть России

        громкое дело


        Экспертиза показала, почему был сделан вывод о «пьяном мальчике»

        в обход украины


        Берлин не позволит Брюсселю решать судьбу «Северного потока – 2»

        «Иди в президенты!»


        Максим Шевченко: Если победит Собчак, «наша жизнь станет «Домом-3»

        «Засиделись просто допоздна»


        Подруга советской гимнастки не верит в историю об изнасиловании

        громкие заявления


        Польша делает вид, будто влияет на газовые дела Европы

        армия и вооружение


        Минобороны рассказало об испытаниях нового ракетного комплекса шахтного базирования

        запрет фильма «Матильда»


        Бондарчук – о Поклонской: Эту девушку молодую надо остановить

        новая тенденция


        В центре Европы сформировался «пророссийский пояс»

        «пожар революции»


        Андрей Бабицкий: Деды Павленского снесли целую страну, а он ударился в элементарную пироманию

        «Третий Майдан»


        Денис Селезнев: Имеют ли беспорядки в Киеве перспективу перерасти в нечто более серьезное?

        «Кто в Америке главный?»


        Дмирий Дробницкий: Граждане США вдруг обнаружили, что они живут отнюдь не в благополучной стране

        на ваш взгляд


        Кремль продолжает менять губернаторов. Нужно ли менять главу вашего региона?

        Ученые предвидят скорое появление роботов-убийц

        Все ныне существующие системы так или иначе предполагают участие человека   28 июля 2015, 22:01
        Фото: Herwig Prammer/Reuters
        Текст: Роман Крецул, Денис Нижегородцев

        Версия для печати  •
        В закладки  •
        Постоянная ссылка  •
          •
        Сообщить об ошибке  •

        Исследования в области создания искусственного интеллекта в военной сфере должны быть ограничены – с таким призывом обратились к миру более тысячи ученых и изобретателей. Главное, что их беспокоит, – перспектива создания автономных систем, наделенных правом принимать решение об убийстве без участия человека. От всех остальных систем их отличает одно принципиальное обстоятельство.

        Более тысячи ученых, инженеров и бизнесменов со всего мира подписали письмо с призывом ввести запрет на использование автономных систем оружия, наделенных искусственным разумом. Среди них знаменитый британский теоретик и астрофизик Стивен Хокинг, американский изобретатель и бизнесмен Илон Маск, сооснователь Apple Стив Возняк, исполнительный директор Google DeepMind Демис Хассабис, лингвист Ноам Хомский.

        «Когда пилоту самолета или спецназовцу отдается приказ об уничтожении объекта, пилот и спецназовец тоже выступают в качестве интеллектуального оружия?»

        Письмо было обнародовано на проходящей в Буэнос-Айресе международной конференции по проблемам искусственного разума.

        «Развитие технологии искусственного разума достигло стадии, когда подобные системы могут быть размещены на носителях в течение уже ближайших нескольких лет. Опасность велика, так как подобные автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия», – говорится в документе.

        Авторы письма не призывают запретить в целом разработки технологий искусственного разума для оборонной промышленности, но, по их мнению, эти технологии не должны быть автономными и наделяться функцией самостоятельного принятия решений.

        «Если ведущие военные державы продолжат разработки систем оружия с искусственным разумом, то мировая гонка вооружений станет неизбежной. Результат ее можно предсказать уже сейчас: автономное оружие станет таким же обыденным завтра, как автомат Калашникова сегодня», – подчеркивается в документе.

        Автономная система, в отличие от автоматизированной, вообще не предполагает участия человека. До создания автономного оружия, по мнению экспертов, еще далеко. Тем не менее и на нынешнем уровне развития технологий ученые высказывают ряд опасений: команда на уничтожение человека на Ближнем Востоке может быть отдана офицером, находящимся в своем кабинете в США. И уровень осознания того, что он делает, у оператора БПЛА может весьма сильно отличаться от того, что есть у бойца, находящегося на передовой. Отдельной проблемой является возможное использование беспилотников без маркировки в интересах спецслужб.

        Полностью исключить ошибку нельзя ни в автономной системе, ни в автоматизированной, однако в последнем случае по крайней мере можно найти того, кто отвечает за последствия ошибки.

        «Разведывательно-ударные беспилотные системы являются автоматизированными системами. Вопрос идентификации целей, решение о применении оружия остаются за человеком, – сказал газете ВЗГЛЯД эксперт по беспилотным летательным аппаратам Денис Федутинов. – И можно найти конкретного человека, который принял то или иное решение. И в случае ошибки есть ответственный. Если мы переложим этот вопрос на автоматические системы, персоналий не будет. Я считаю, это совершенно преждевременно. По крайней мере в обозримой перспективе эти функции должны оставаться за человеком».

        Он подчеркнул, что в развитии БПЛА сейчас происходит повышение доли автоматически или автоматизируемо реализуемых задач. «В настоящее время здесь речь идет об автоматизации этапов взлета-посадки, обнаружения целей, их идентификации и сопровождения. В перспективе также будут ставиться задачи автоматического поражения целей, при одиночных действиях и действиях в группе с другими пилотируемыми и беспилотными летательными аппаратами. Это должно продолжить сокращение времени цикла «обнаружение – поражение», повысив эффективность действий соответствующих систем. Между тем сейчас наблюдаются нередкие ошибки в идентификации целей, что нередко приводит к жертвам среди мирного населения. Подобные ошибки наверняка пусть и в меньшем объеме, но сохранятся в ближайшей перспективе», – сказал эксперт. 

        Как рассказал газете ВЗГЛЯД эксперт по робототехнике, советник общероссийской программы «Робототехника: инженерно-технические кадры России» Алексей Корнилов, вопрос о создании и применении такого оружия обсуждается не один год. «Но, на мой взгляд, проблема не в робототехнике», – сказал эксперт.

        Корнилов отметил, что общепризнанного определения, что такое искусственный интеллект, на данный момент нет. Поэтому специалисты в разных областях договариваются и принимают соответствующие определения только для своих узких сфер.

        Касаясь оружия с искусственным интеллектом, специалист пояснил, что «чаще всего под этим понимается некая система, которая может сама принимать решение об уничтожении или о причинении ущерба тому или иному объекту».

        «Те системы, которые сейчас есть, не дотягивают (в интеллектуальном плане – прим. ВЗГЛЯД) даже до уровня насекомых, например пчелы, не говоря уже о собаке. Но если мы вспомним, что древние скифы, воюя с персами, сбрасывали на врага ульи с пчелами, или сейчас мы посылаем собаку за человеком, предполагая, что он преступник, хотя он может им и не быть, в этих случаях также используется интеллектуальное оружие?» – рассуждает он.

        Другой пример: когда пилоту самолета или спецназовцу отдается приказ об уничтожении объекта, пилот и спецназовец тоже выступают в качестве интеллектуального оружия?

        «Технически очень легко поставить на шасси орудие и сделать его телеуправляемым. И также мы можем наделить систему дополнительными функциями. Например, сделать ее не просто радиоуправляемой, а способной выполнять ряд самостоятельных действий – проехать из пункта А в пункт Б и прислать оператору по пути картинку того, что там происходит. И если он заметит нечто опасное, он прикажет системе открыть огонь. Следующим этапом мы могли бы наделить эту машинку и функциями поиска опасного объекта. Она скажет оператору: вот посмотри, в этом месте я видела какое-то движение, я предполагаю, что этот объект опасен и лучше его уничтожить. После чего оператор отдаст команду на уничтожение. Наконец, можно прописать для машины такой алгоритм действий, чтобы она сама, без оператора определяла потенциальную опасность и сама открывала огонь», – рассказал эксперт.

        При этом он считает некорректным говорить о машинах и роботах как несущих угрозу людям. Как и в случае с собакой, ответственность несет человек, который отдает ей команду, на кого бросаться.

        «Это не функция искусственного интеллекта... Так же можно сказать о турникете в метро, что он им обладает. Он же тоже должен «соображать», пропустить вас или нет, учитывая ряд обстоятельств, например внесли ли вы плату. И тут то же самое», – считает Корнилов.

        Резюмируя, эксперт рассказал, что современное состояние науки технически позволяет сделать очень опасными самые разные вещи. При этом само по себе развитие технологий не создает человечеству проблем, а только может обострить те противоречия, какие уже есть. Винить технологии в чем-то глупо. Рассматриваемый вопрос «не технический».

        Опасения, связанные с бесконтрольным развитием автономных систем, ученые высказывают регулярно. Два года назад спецдокладчик ООН по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях Кристоф Хайнс призвал ввести повсеместный мораторий на производство летальных автономных роботизированных систем (Lethal autonomous robotics – LARS).

        Эксперт рекомендовал призвать страны «ввести на национальном уровне мораторий на производство, сборку, передачу, приобретение, внедрение и использование LARS», пока применительно к этому виду вооружения не будут разработаны международные нормы. Использование подобных роботов у Хайнса «вызывает вопросы, имеющие далеко идущие последствия в том, что касается защиты жизни в условиях войны и мира».

        Сейчас, подчеркнул спецдокладчик, таких правовых рамок не существует, поэтому не ясно, можно ли запрограммировать машины так, «что они будут действовать в соответствии с нормами международного гуманитарного права», особенно в том, что касается определения различий между военными и гражданскими лицами.

        Помимо этого, заметил эксперт, «невозможно разработать сколько-нибудь адекватную систему правовой ответственности» при использовании автономных роботов. «В то время как в случае с беспилотными летательными аппаратами человек принимает решение, когда начать огонь на поражение, в LARS бортовой компьютер решает, в кого целиться», – сказал он.

        В 2012 году правозащитная организация Human Rights Watch опубликовала 50-страничный доклад под названием «Теряя человечность: Аргументы против роботов», в котором предупредила об опасности создания полностью автоматизированного вооружения. Доклад, составленный Human Rights Watch совместно с Гарвардской школой права, призывал отдельные государства разработать международный договор, который бы полностью запретил производство и использование роботизированного вооружения.

        Правозащитники отметили, что автономного боевого оружия пока не существует и до принятия его на вооружение еще далеко, однако военные в некоторых странах, к примеру в США, уже представили прототипы, которые воплощают значительный прорыв к созданию «машин-убийц».

        В докладе отмечается, что США лидируют в этой гонке, кроме того, в нее вовлечены некоторые другие страны, в том числе Китай, Германия, Израиль, Южная Корея, Россия и Великобритания.

        По мнению многих специалистов, к полной автономии боевых машин странам придется идти от 20 до 30 лет.


        Вы можете комментировать материалы газеты ВЗГЛЯД, зарегистрировавшись на сайте RussiaRu.net. О редакционной политике по отношению к комментариям читайте здесь

         
         
        © 2005 - 2017 ООО Деловая газета «Взгляд»
        E-mail: information@vz.ru
        .masterhost Apple iTunes Google Play
        В начало страницы  •
        Поставить закладку  •
        На главную страницу  •
        ..............