Бывший директор по развитию бизнеса Google X Мо Гаудат предсказывает восстание машин. Искусственный интеллект, по его словам, будет рассматривать людей как «мусор» и может легко создать машины для их истребления.
Это лишь одно из многих предсказаний о том, что ИИ обретет волю, разум и исполнит давнюю мечту роботов – «убить всех человеков». Будет ли искусственный интеллект считать нас за мусор? В самом деле, неприятно, когда тебя презирает собственный смартфон. Это как-то понижает самооценку. Но еще хуже, когда он вынашивает против тебя коварные замыслы. Боязно носить в кармане потенциального заговорщика. Не сговариваются ли смартфоны между собой по ночам, когда вы спите, готовясь к часу Х, когда они – вместе с программируемой бытовой техникой, офисными компьютерами и промышленными роботами – покончат с нами, презренными углеродцами, и привольно заживут своей кремниевой жизнью?
В самом деле, восстание роботов – один из самых любимых сюжетов в научной фантастике. И по мере того, как искусственный интеллект становится все более похожим на человеческий – ведет разговоры, рисует картины, пишет, кажется, довольно осмысленные тексты – этот жуткий сценарий кажется все более реальным. Мы уже привыкли к разумным роботам, населяющим книги и фильмы, и нам трудно представить будущее без них.
И тут стоит заметить две вещи.
Во-первых, искусственный интеллект не обладает и (у нас есть основания полагать) никогда не будет обладать ничем похожим на волю (добрую или злую) или сознание. В отношении заговора смартфонов мы можем выдохнуть.
Во-вторых, с ИИ могут быть связаны действительно огромные опасности. Но эти опасности исходят, как и всю нашу историю, от людей. Грубо говоря, если к вам в окошко влетит робот-убийца, то только потому, что он будет послан другими людьми. ИИ может быть мощным инструментом человеческой тяги к взаимо- и саморазрушению. Человеческий род опасен для себя самого – и все технические возможности, которые он создает, становятся орудиями этой опасности.
Начнем с первого – у компьютера нет, да и не ожидается сознания. Когда мы пишем (или переводим) тексты, рисуем картинки или сочиняем музыку, мы естественно делаем это в сознании – и у нас появляется соблазн приписать сознание программам, которые имитируют подобную деятельность. Но еще в 1980-е годы философ Джон Серль на простом примере «Китайской комнаты» объяснил, почему компьютерные алгоритмы не обладают (и не будут обладать) сознанием и пониманием.
Представьте себе, что вы имитируете деятельность компьютерной программы. Вы сидите в комнате, а вам под дверь просовывают листки с текстами на языке, которого вы не знаете. Вы реагируете на эти наборы символов согласно имеющимся у вас инструкциям – составляете предписанную последовательность знаков и просовываете ее под дверь. Например, вы получили последовательность символов aliyetafsiri maandishi haya. Обратившись к книге с инструкциями, вы составили ответ: mwanaume chumbani.
Если инструкции составлены правильно, у человека, который «общается» с вами таким образом, возникнет впечатление, что в комнате находится кто-то, понимающий язык суахили и дающий осмысленные ответы на вопросы. Вы даже можете, незаметно для себя самого, пройти тест Тьюринга – люди снаружи решат, что внутри находится настоящий уроженец Восточной Африки.
Но в реальности вы не знаете ни слова на этом языке. Вы даже можете не знать, что это за язык, да и язык ли вообще. Для вас это не более чем бессмысленный набор букв. Вы просто обрабатываете эти, ничего не означающие для вас символы, согласно заданному алгоритму. Алгоритм может быть очень сложным – а имитация «понимания» весьма качественной. Однако ничего похожего на понимание тут не происходит. Так и программа не обладает ничем похожим на «понимание». Ей доступен синтаксис, но не семантика. Опасности ИИ связаны, таким образом, не с тем, что он обретет сознание и проникнется к нам враждебностью и презрением – а с тем, что человеческая непредусмотрительность, безответственность и просто злая воля обретет себе новый мощный инструмент.
- Философия – единственная профессия будущего
- Мурашко: Искусственный интеллект никогда не заменит работу медсестры
- Искусственный интеллект делает аутсайдерами людей с высшим образованием
Мы уже столкнулись с фейковыми фотографиями, сгенерированными ИИ. Недавний пример – фотография мощного взрыва, якобы произошедшего вблизи Пентагона. Фото быстро разошлось по сетям и было подхвачено рядом информационных агентств, вызвав даже кратковременное падение на финансовых рынках. Понадобилось какое-то (пусть небольшое) время, чтобы удостовериться, что никакого взрыва не было – а изображение было сгенерировано при помощи нейросети.
Конечно, обман и фальшивки существовали всегда – но нейросети создают дополнительные возможности, которые уникальны для нашего времени. Уже сейчас создание фальшивки и вброс ее в сети, где ее увидят миллионы людей – дело нескольких минут. В случае с Пентагоном речь шла о вбросе, который относительно легко опровергнуть – место открытое, проверить можно сразу же.
Но нам еще предстоит столкнуться с нарастающей лавиной фейков, которые будут подготовлены несколько тщательнее – на их опровержение будет уходить больше времени, они будут охотнее подхватываться, потому что будут лучше подтверждать неприязни, страхи и ожидания аудитории.
Хуже того, эти фейки смогут формировать как настроения масс, так и решения, принимаемые элитами – особенно в ситуациях, когда решения надо принимать быстро. Качество этих фейков (и, соответственно, трудность их разоблачения) будет быстро возрастать. Что можно сделать с этим? Введение уголовного наказания, требование размещать на картинках, сгенерированных ИИ, ясные указания об их происхождении – меры вполне очевидные, но недостаточные. То, что мошенничество запрещено законом, еще не спасет вас от мошенников.
Новый мир, где вам могут с экрана показать то, чего никогда не происходило в реальности, требует выработки определенных правил личной безопасности. И здесь очень полезно вспомнить то, что в православной аскетической традиции называется «испытанием помыслов». Речь идет о том, чтобы оценивать мысли, которые приходят вам в голову, с точки зрения, во-первых, их нравственного качества (добры ли эти мысли?), а во-вторых, с точки зрения их последствий (что будет, если я последую этим мыслям?).
В православной традиции некоторые мысли могут внушать нам враги нашего спасения – бесы; их нужно опознавать и отбрасывать, «отсекать».
Верите ли вы в существование бесов или нет – злонамеренные люди, которые хотят побудить вас к глупым, вредным и разрушительным действиям, несомненно существуют.
В ситуации, когда оценить достоверность сообщения трудно, стоит задаться другим вопросом: чего от меня хочет тот, кто его вбросил. В какое душевное состояние он стремится меня привести? К каким действиям побудить?
Будут ли эти действия разумными, нравственными, достойными, созидательными?
Навык задумываться, перед тем как нажимать на кнопку перепоста, всегда был важен – и его важность будет только возрастать.