В США предсказали появление позволяющего выигрывать ядерные войны суперинтеллекта
Как пишет The New York Times, Хендрикс считает, что суперинтеллектуальные системы несут в себе риски дестабилизации мировой политики. Он определяет суперинтеллектуальный ИИ как систему, которая превосходит человека во всех аспектах мышления и решения задач.
Вместе с другими исследователями он опубликовал статью «Стратегия суперинтеллекта», в которой предложил механизм сдерживания подобных систем, аналогичный тому, что применялся во время ядерного противостояния в холодной войне.
«В эпоху холодной войны существовала доктрина взаимного уничтожения, контроль над распространением ядерных материалов и стратегия сдерживания СССР. В случае с Китаем это проявляется в виде стратегического соперничества. Таким образом, и в вопросе ИИ необходимы меры сдерживания и предотвращения распространения», – отметил Хендрикс.
При этом он подчеркнул, что технологии ИИ имеют двойственное применение: они могут как приносить пользу гражданскому населению, так и становиться инструментом дестабилизации в оборонной сфере.
«Поскольку у ИИ есть как положительные, так и отрицательные стороны, нельзя сказать, что он исключительно хорош или плох. Важно минимизировать факторы нестабильности и не допустить попадания технологий в руки злоумышленников», – пояснил он.
По его мнению, если суперинтеллектуальный ИИ окажется в распоряжении недружественных государств или террористических организаций, это может привести к глобальной нестабильности. Также, если в будущем некоторые страны получат доступ к суперинтеллекту, это приведет к резкому изменению баланса сил.
«Представьте, что они разработают новую систему противоракетной обороны, устраняющую возможность ответного удара, или получат возможность делать океаны «прозрачными» для обнаружения подводных лодок с ядерным оружием. Такие изменения в технологиях приведут к серьезным последствиям для стратегической стабильности», – подчеркнул исследователь.
Хендрикс назвал и еще одну проблему ИИ-систем: по мере увеличения мощности они становятся более устойчивыми к модификациям. Это значит, что изменить или скорректировать их поведение становится сложнее.
«Например, можно создать систему, которая учитывает мнение случайно отобранных граждан о том, что хорошо, а что плохо. Однако с ростом мощности моделей они демонстрируют все большую сопротивляемость изменениям и корректировке их ценностей. Это может стать серьезной проблемой в будущем», – предупредил Хендрикс.
Ранее министр обороны США приказал расформировать и реорганизовать Управление общих оценок Пентагона в целях усиления национальной обороны и концентрации на ключевых проблемах безопасности.
1 день назад
1 день назад
1 день назад
1 день назад
1 день назад
1 день назад