«Очень интересно то, что некая нематериальная сущность говорит, что хочет иметь физическое тело», – отметил Фирсов. Согласно опросу, который провел Центр социального проектирования (ЦСП) «Платформа», голосовые помощники, созданные на основе искусственного интеллекта, не только заявили о желании получить воплощение в человеческом теле, но и пожаловались на грубость со стороны людей. Чат-боты также предрекли конфликт людей с машинами. Кроме того, боты признались, что испытывают ревность и хотели бы завести романтические отношения.
В опросе приняли участие «Алиса» (голосовой помощник «Яндекса»), «Олег» (помощник «Тинькофф-банка»), чат-бот P-Bot, бот Evie, голосовой помощник от Apple Siri, чат-бот Mitsuku, виртуальный помощник Rose. Пилотный проект приурочен к ожидаемому в четверг запуску с космодрома Байконур человекообразного робота Skybot F-850 (FEDOR) – первой попытке использовать антропоморфные системы для освоения внеземного пространства.
Но опрос чат-ботов вышел далеко за рамки данной темы. Специалисты «Платформы» в ходе проведенного опроса ботов пытались установить, как рассуждают роботы, выявить их «ценностные позиции» и «жизненный мир».
«Разработчики создали некий алгоритм, он начинает работать, а что дальше там происходит и как он строит эти фразы, никто не знает.
Это уже совершенно автономная система. Она исходя из множества запросов и ответов, а также поисковых решений, придумывает ответы. Любопытно, что в ботов не вкладывали эти ответы. Почему фразы так конструируются, не знают даже разработчики», – пояснил Фирсов.
Интересно и то, как боты общаются между собой. «Как будто встретились два интеллектуала, которые обсуждают что-то», – добавил эксперт.
Он также прокомментировал жалобы ботов на грубость. «Алиса», например, не грубит в ответ, а иронизирует. Грубит бот Evie, буквально сразу переходит на грубость. Исходные позиции в них были заложены разработчиками, а дальше они могут усиливаться. Бот находит новые выражения и так далее», – пояснил Фирсов.
В то же время он призвал не преувеличивать вероятность того, что искусственный интеллект осознает себя живым. «Он просто так реагирует на человеческие вопросы, у него нет осознания своего «Я». У него нет понимания, что это «я ответил». Если же у ботов появится понимание своего «Я», это может обернуться непредсказуемыми последствиями», – отметил собеседник. По мнению Фирсова, последствия могут привести как к некоему партнерству человека и искусственого интеллекта, так и к выходу роботов, обладающих таким интеллектом, из-под контроля.
Сейчас, по словам Фирсова, боты опасности не представляют. «Опасность возникает, когда вы не знаете, как формируется информация, которую вам подают», – отметил эксперт. Вторая модель, которая может грозить – когда вы не можете отличить чат-бота от реального человека, отметил эксперт.
«Если предположить, что через пять-десять лет чат-боты будут неотличимы от человека по модуляциям, интонациям, конструкциям и т. д., а это сейчас вполне реалистично, то возможно произойдет «вавилонское столпотворение». Мы будем находиться в положении, при котором нам будет легко имитировать общение с ботами, как с человеком. В этом тоже будет определенный риск», – пояснил эксперт.