В последнее время исследователи в Соединенных Штатах и других странах уделяют большое внимание перспективе дальнейшего повышения уровня автоматизации систем ядерного оружия и инфраструктуры, созданной для его эксплуатации, а также быстро растущей искусственного интеллекта. В начале декабря три видных американских военных эксперта опубликовали рабочий материал, который содержит всесторонний анализ применения автоматики в ядерных системах контроля и управления. В частности, авторы задаются вопросом, что может пойти не так, если те или иные страны решатся на применение наиболее рискованных форм автономного управления ядерным оружием. Доклад под названием «Стабильное ядерное будущее? Влияние автономных систем и искусственного интеллекта», написанный группой в составе Майкла Горовица, Пола Шарре и Александра Велес-Грина, появился вслед за многими другими научными исследованиями, посвященными теме влияния искусственного интеллекта на стратегии применения ядерного оружия. Такое обилие исследований, несомненно, отражает тот факт, что военные во всем мире активно применяют системы ИИ в управлении неядерными вооружениями, и что несколько стран уже пересматривают свои программы развития ядерного оружия. «Мы поставили себе задачу разобраться в том, какое влияние как стабилизирующее, так и дестабилизирующее, автоматика может оказать на ядерное равновесие, – сказал Пол Шарре, старший научный сотрудник Центра новых подходов к обеспечению американской безопасности, в интервью изданию Bulletin of the Atomic Scientists. – В частности, мы наблюдаем, как другие страны модернизируют свой ядерный потенциал, и понимаем, что применение автономных механизмов сопряжено как с новыми возможностями, так и с немалым риском». В докладе отмечается, что системы ядерного оружия уже сегодня включают некоторые автоматические функции: например, системы датчиков предупреждают операторов о возможном нападении противника. После холодной войны российские ракеты были запрограммированы таким образом, что, в случае запуска они по умолчанию наводились на цели, расположенные на территории США. В свою очередь, Соединенные Штаты в определенный момент также перенастроили весь свой ракетный арсенал, чтобы ракеты в считанные секунды изменили цель, хотя по умолчанию в случае запуска в мирное время все они должны были упасть в океан. Даже такие формы автоматизации сопряжены с риском, поскольку случайный запуск может «спровоцировать ядерную войну», говорится в докладе. В то же время, некоторые страны, как отмечают авторы, могут прибегнуть к более рискованным механизмам автоматического управления. Источниками этих рисков могут быть различные факторы. Так, некоторые страны могут начать разработку беспилотных аппаратов с ядерным оружием на борту. При этом в отсутствии человека, отвечающего за развертывание ядерного оружия, эти системы могут подвергнуться взлому или выйти из-под контроля по каким-то иным причинам, считают авторы. Фактически, как отмечается в докладе, Россия уже разрабатывает автономную ядерную торпеду. Горовиц, профессор-политолог из университета Пенсильвании, сказал корреспонденту Bulletin, что беспилотный подводный аппарат «Посейдон», ранее известный как «Статус-6», возможно, положил начало этой опасной тенденции, хотя пока не ясно, какую роль в нем будет играть искусственный интеллект. «Несмотря на многочисленные сомнения, готовность России поставить на вооружение долгосрочное автономное подводное средство доставки ядерного заряда, такое как «Статус-6», показывает, что страх перед превосходством противника в области ядерных или обычных вооружений может стать стимулом для достижения большей автономности ядерного оружия», – сказал Горовиц. Потенциальные противники США могут также активно интегрировать ИИ в так называемые системы раннего предупреждения, фиксирующие признаки ядерной атаки, или в системы поддержки стратегических решений, используемые для наблюдения в постоянном режиме за ядерными и иными военными силами других стран. Между тем, даже самые простые формы автоматизации в подобных системах в прошлом приводили к обострению ядерной напряженности. В докладе упоминается знаменитый инцидент 1983 года, когда офицеру Советской Армии, подполковнику Станиславу Петрову пришлось взять на себя огромный риск и проигнорировать звуковые и визуальные сигналы о приближении американских ядерных ракет, которые посылала автоматическая система. К счастью, Петров решил сначала проверить информацию, тем самым бросив вызов мощному когнитивному феномену, известному как «предвзятое доверие автоматике». Другой проблемной формой первых систем автоматики была советская система поддержки принятия стратегических решений, известная как VYRAN. Она представляла собой компьютерную программу, призванную предупредить руководство Советского Союза, если Соединенные Штаты достигнут такого уровня военного превосходства, который потребует от Москвы проведения ядерной атаки. Однако, советские разведчики вводили в нее исходную информацию, которая часто подтверждала их предвзятые представления о намерениях США. «Этот замкнутый круг обратной связи усиливал предполагаемые угрозы, вместо того чтобы давать советским лидерам более ясное и точное представление о намерениях Соединенных Штатов», – утверждают авторы доклада. Существуют также свидетельства, согласно которым некоторые страны, в том числе Россия и Китай, уделяют в настоящее время повышенное внимание разработке так называемых моделей организации вычислений для анализа угроз. Однако, наряду со всеми упомянутыми недостатками, по мнению американских исследователей, существуют убедительные причины для дальнейшего внедрения автоматики и искусственного интеллекта в системы ядерного оружия. Они отмечают, что системы ИИ могут обрабатывать большие объемы данных и позволяют людям, отвечающим за принятие решений, повысить свой уровень владения обстановкой. Автоматика может быть полезна для передачи команд в условиях «сильных электромагнитных помех», возможно, во время войны. Но, как сказано в докладе, «многие из этих способов, с помощью которых автономные системы могут увеличить устойчивость и точность систем контроля и управления ядерным оружием, вызывают сомнения». Страны, которые с наибольшей вероятностью возьмут на себя риск более масштабного внедрения искусственного интеллекта и автоматики в свои системы ядерных вооружений, это те, которые меньше других уверены в своей способности нанести ответный удар в случае нападения на их ядерный арсенал. Как отмечают авторы, это связано с тем, что, когда речь идет о странах, более уверенных в своей военной мощи, последствия незамеченных признаков нападения будут относительно менее масштабными. Горовиц полагает, что интегрирование ИИ в сами системы ядерного оружия создает в основном риски с малой степенью вероятности. На самом деле, гораздо больше его беспокоит вопрос о том, как ИИ в неядерных вооружениях может повлиять на политику в отношении применения ядерного оружия. «Риск, который вызывает у меня наибольшую тревогу, заключается в том, что использование ИИ в связке с обычными вооружениями за счет наращивания скорости военных действий может оказать давление на доктрины раннего предупреждения и запуска, существующие сегодня у ядерных государств, поскольку у некоторых из них может возрасти уровень страха перед поражением в неядерном вооруженном столкновении», – сказал эксперт. Или, как говорится в самом докладе, дефицит времени на реагирование, вызванный внедрением ИИ, может привести к цепочке принятия решений, которая в наихудшем случае может закончиться приказом о нанесении упреждающего ядерного удара. «Страх перед поражением может создать стимул быстрой эскалации конфликта до уровня обмена ядерными ударами». Авторы полагают, что существует довольно высокая вероятность все более активного «проникновения» автоматики в ядерные операции, особенно в процессе модернизации той или иной страной своего арсенала. Соединенные Штаты уже приступили к реализации долгосрочного плана общей стоимостью более триллиона долларов. Россия и Китай также вкладывают в модернизацию и разработку новых ядерных вооружений немало сил и средств. «Особый интерес здесь представляет собой тот факт, что и Соединенные Штаты и Россия уже на протяжении нескольких десятилетий имели элементы автоматики в своих ядерных операциях, системах раннего предупреждения, контроля и управления, а также средствах доставки», – сказал Шарре. – Так что этот вопрос заслуживает более глубокого изучения». Возможно, на самом деле, значение этой проблемы даже несколько преуменьшено.
Загрузка...
Загрузка...