В Вашингтоне оценили риски привлечения ИИ в сферу ядерного оружия

9

В Вашингтоне в Центре стратегических и международных исследований (CSIS) обсудили, стоит ли подключать искусственный интеллект (ИИ) к управлению, системе командования и контроля над ядерными мощностями, в том числе в случае ядерной угрозы или кризиса.

Американская система контроля и связи ядерного командования США, известная как NC3, призвана обеспечить способность управлять ядерными силами даже в самых сложных условиях, как вооруженные конфликты, атаки или стихийные бедствия, передает Голос Америки. Сторонники привлечения ИИ утверждают, что он позволяет ускорить принятие решений во время атаки, дополняет системы раннего предупреждения и анализирует сложные разведывательные данные. Однако критики отмечают, что ИИ имеет технические недостатки, способствует дезинформации, потенциально повышает риск случайной эскалации и уязвимость к кибератакам.

Аналитиков пригласили проанализировать эту тему на фоне российской агрессии и китайского наращивания ядерного оружия.

"Стоит ли нам взять самое опасное оружие, которое когда-либо создавало человечество, которое может убить миллионы, и интегрировать в его управление и контроль абсолютно ненадежную технологию, которую мы еще не понимаем? Нет, не нужно этого делать", – заявил в ходе дискуссии Пол Шарре, директор по исследованиям Центра новой американской безопасности.

Он назвал "действительно плохой идеей" интеграцию искусственного интеллекта в систему командования и добавил, что она изображается даже в художественных произведениях как "одна из самых глупых вещей, которые только могло сделать человечество".

По словам Шарре, после случая, когда высокоавтоматизированная система ПВО Patriot могла повредить два самолета дружественных сил, невозможно допустить автоматизацию в сфере ядерных ракет, поскольку последствием такой ошибки была бы ядерная война.

"Вот о каких ставках идет речь", – добавил эксперт.

Аналитик в итоге назвал идею интеграции ИИ в эту сферу "абсолютно ненадежной" и с потенциальными "тяжелейшими последствиями".

"Реальный риск заключается в том, что система искусственного интеллекта может казаться надежной в мирное время, что может заставить военных доверять ей, но она может выйти из строя во время войны или кризиса. Эта хрупкость является уникальной особенностью искусственного интеллекта. Люди могут гибко реагировать на новые условия, а ИИ – нет", – говорит Шарре.

Он предостерег и о возможных последствиях решений, принятых машиной без человеческого понимания контекста.

Эксперт привел пример беспилотных автомобилей, которые "очень хорошо ездят в определенных условиях, но потом внезапно и без предупреждения наезжают на бетонные барьеры, припаркованные автомобили, грузовики или пешеходов, вызывая смертельные аварии".

Кроме того, ИИ, говорит он, "никогда не сможет понять эмоциональную серьезность того, что поставлено на карту" в случае применения ядерного оружия.

"ИИ в принятии ядерных решений не повысит устойчивость. Это ухудшит наше принятие решений, увеличит риск непреднамеренной эскалации и подорвет ядерную стабильность. И что хуже, это может убаюкать нас ложным чувством безопасности и уверенности, выдавая себя надежным в мирное время, а затем выводя из строя оружие", – сказал аналитик.

К разговору присоединилась и бывшая сотрудница Пентагона и американской разведки Сара Минейро, старший юрист проекта аэрокосмической безопасности в CSIS, которая ранее возглавляла подкомитет по стратегическим силам Комитета Палаты представителей Конгресса США по вопросам вооруженных сил США, а также руководила подкомитетом по космическим программам Министерства обороны и Программы военной разведки, ядерного оружия, противоракетной обороны и гиперзвуковых систем.

"Это буквально дискуссия о существовании человечества", – сказала она.

Минейро считает, что ИИ может быть интегрирован как инструмент анализа большого массива данных и другие технические моменты.

Но нет никакого оправдания тому, чтобы ИИ заменил человеческое суждение, говорит эксперт.

"Я за искусственный интеллект, но только до того, как начинаются полномочия автоматизированного запуска оружия", – заявила Минейро.

Участники дискуссии также отметили, что существует очень ограниченный набор данных по реальному применению ядерного оружия, то есть слишком мало потенциальной входной информации для тренировки и настройки ИИ и его возможных реакций на угрозы.

Предыдущая статьяУкраину атакуют дроны-камикадзе «Шахед» из России: где риск ударов
Следующая статьяСМИ сообщили о передаче Израилем трофейного оружия Украине: посол прокомментировал (видео)