Моя душа

Хотя в научной фантастике это уже давно стало угрозой конца света, представители ВВС и космических сил США считают, что искусственный интеллект (ИИ) играет важную, если не решающую роль в системе командования и контроля, лежащей в основе американского потенциала ядерного сдерживания. Искусственный интеллект способен ускорить процесс принятия решений и обеспечить максимально быструю и надежную доставку заказов туда, куда им нужно. Он также может быть использован для оказания помощи персоналу, выполняющему другие функции, от обработки разведывательных данных до управления техническим обслуживанием и логистикой.
Те же официальные лица подчеркивают, что людям всегда нужно будет быть в курсе событий или, по крайней мере, быть в курсе событий, и что машина сама по себе никогда не сможет принять решение о применении ядерного оружия.
Группа офицеров Военно-воздушных и космических сил рассказала о том, как искусственный интеллект может быть использован для поддержки того, что официально называется архитектурой ядерного командования, контроля и связи (NC3), во время панельной дискуссии на военном симпозиуме Ассоциации воздушно-космических сил 2025 года, на котором присутствовал TWZ. В настоящее время NC3 enterprise состоит из широкого спектра коммуникационных и других систем на поверхности, в воздухе и в космосе, предназначенных для обеспечения того, чтобы ядерный удар США мог быть нанесен в любое время, независимо от обстоятельств.
“Если мы не будем думать об ИИ и не примем во внимание ИИ, то мы проиграем, а я не заинтересован в поражении”, - сказал генерал-майор. Тай Нойман, директор по стратегическим планам, программам и требованиям Глобального ударного командования ВВС (AFGSC), заявил вчера. “Поэтому нам абсолютно необходимо разобраться с этим”.
“Искусственный интеллект должен стать частью того, как будет выглядеть [архитектура] NC3 следующего поколения. Мы должны разумно подходить к использованию этой технологии”, - продолжил Нойман. “Безусловно, скорость - это, вероятно, самое важное. Данных будет очень много, и с цифровыми архитектурами, гибкими архитектурами и тому подобными вещами мы должны использовать преимущества скорости, с которой мы можем обрабатывать данные”.
Нойман также рассказал о роли искусственного интеллекта в обеспечении безопасной связи.
“Я бы предположил, что это действительно произойдет в мире связи, если использовать искусственный интеллект для отправки сообщения или сообщения от Национального командования стрелку, ИИ должен быть в состоянии определить, какой путь для меня является самым быстрым и безопасным сообщение от лица, принимающего решение, стрелку”, - пояснил генерал. “Как человек-оператор системы связи в современном мире, я не смогу определить, какой путь является наиболее надежным, потому что сигналы будут поступать в 100 различных направлениях. Некоторые из них могут быть скомпрометированы. Некоторые могут быть и не скомпрометированы. Я не смогу это определить, поэтому ИИ должен быть частью этого.”
Национальное командование - это механизм, с помощью которого президент Соединенных Штатов отдает приказ о нанесении ядерного удара, и более подробно об этом процессе вы можете прочитать здесь. В настоящее время Америка располагает ядерной триадой “стрелков”, состоящей из бомбардировщиков B-2 и B-52, межконтинентальных баллистических ракет шахтного базирования Minuteman III (МБР) и подводных лодок с баллистическими ракетами класса "Огайо". Боевые самолеты ВВС F-15E Strike Eagle, а также, по крайней мере, несколько истребителей F-35A Joint Strike Fighter и F-16 Viper также могут нести тактические ядерные бомбы B61.
Искусственный интеллект может быть полезен на предприятии NC3 не только для принятия решений, но и для коммуникации.
“Мы можем анализировать исторические данные и выявлять тенденции, и эти инструменты искусственного интеллекта можно было бы использовать для прогнозирования. Мы могли бы использовать его в наших системах для упреждающего управления, так же как и для технического обслуживания нашей системы, для планирования обновлений системы и снижения рисков неожиданных сбоев в работе”, - сказал полковник космических сил. Райан Роуз, заместитель директора по военной связи и позиционированию, навигации и хронометражу (PNT) в Командовании космических систем, еще один участник дискуссии, сказал. - Кроме того, данные или тенденции, связанные с кибербезопасностью, или возможность видеть, что замышляют наши противники, также могут быть полезны лицам, принимающим решения”.
Комментарий Роуза о кибербезопасности, сделанный вскользь, является важным аргументом в пользу того, что искусственный интеллект может быть полезен для защиты сетей, подобных архитектуре NC3, как в киберпространстве, так и во всем радиочастотном (RF) спектре.
Сфера принятия ядерных решений всегда отличалась сжатыми сроками, в том числе когда речь шла о безопасном распространении приказов о нанесении ядерного удара. На протяжении десятилетий считалось, что у президента будет в лучшем случае десятки минут, если не существенно меньше, на изучение имеющихся вариантов действий и выбор одного или нескольких для приведения в исполнение, как только будет обнаружена и положительно идентифицирована приближающаяся ядерная угроза. Многие из этих направлений действий были бы жизнеспособны только в течение определенного периода времени, и любое нарушение процесса принятия решений имело бы разрушительные последствия.
Кроме того, в Министерстве обороны уже предпринимаются усилия по интеграции возможностей, основанных на искусственном интеллекте, в другие системы принятия решений, в том числе на тактическом уровне. Инструменты искусственного интеллекта уже используются для мониторинга внутреннего воздушного пространства и обработки разведывательных данных, а также для оказания помощи в техническом обслуживании, логистике и других функциях, связанных с обеспечением жизнеобеспечения.
В то же время существуют опасения по поводу точности моделей, лежащих в основе существующих возможностей, управляемых искусственным интеллектом, и идея автоматизации всего, что связано с ядерным оружием, является особенно актуальной. Научная фантастика и другие разделы популярной культуры также полны историй, в которых передача некоторых аспектов американского арсенала ядерного сдерживания машине приводит к апокалипсису или сопряжена с риском его возникновения. Фильм "Военные игры" 1983 года и франшиза "Терминатор", начавшаяся с одноименного фильма 1984 года, но еще более подчеркнутая вступительной сценой к сиквелу 1991 года "Терминатор 2: Судный день 2", являются яркими примерами.
Участники вчерашней дискуссии признали обеспокоенность по поводу интеграции искусственного интеллекта именно в архитектуру NC3.
“Когда мы думаем о ядерном предприятии и наших ядерных возможностях, а также о гарантированной связи, которая нам абсолютно необходима, нам нужен человек, который был бы в курсе событий. Каким бы хорошим ни был искусственный интеллект, какими бы хорошими ни были компьютерные процессы и тому подобные вещи, на самом деле он хорош настолько, насколько хороши данные, которые в него вводятся”, - сказал Нойман. “Следовательно, если данные повреждены, то у нас нет возможности определить, действительно ли там находятся данные или выходные данные. Таким образом, нам абсолютно необходимо, чтобы человек был в курсе происходящего”.
“Человеческий контур на самом деле должен быть просто для того, чтобы информировать и следить за тем, чтобы передаваемые данные были абсолютно правильными”, - также сказал он.
“Я думаю, что важно расширять границы ИИ и предлагать инновационные решения, которые являются надежными и заслуживающими доверия, но я также признаю, что интеграция ИИ, особенно в системы NC3, сопряжена с некоторыми проблемами и рисками”, - добавил Роуз. “Я думаю, что с помощью надежного тестирования, валидации и внедрения механизмов надзора мы сможем найти способ снизить некоторые из этих рисков и проблем и в конечном итоге создать системы искусственного интеллекта, которые будут работать так, как они задуманы”.
“Я бы просто хотел обратиться к тем людям, которые, возможно, не так хорошо знакомы с этим направлением деятельности: хотя нам действительно нужно все, о чем мы только что говорили, всегда найдется человек, принимающий решение о том, использовать ли это оружие, и этим человеком будет президент Соединенных Штатов,” Генерал-лейтенант ВВС. Эндрю Гебара, заместитель начальника штаба по стратегическому сдерживанию и ядерной интеграции, который также присутствовал на вчерашнем заседании, подчеркнул: “Так что для тех из вас, кто обеспокоен, не беспокойтесь об этом. Этот человек всегда будет в курсе событий”.
Стоит отметить, что вчерашняя дискуссия была далеко не первым случаем, когда военные чиновники США публично выступали за интеграцию искусственного интеллекта в ядерные операции.
“Мы также разрабатываем искусственный интеллект или инструменты поддержки принятия решений с поддержкой ИИ под руководством человека, чтобы наши руководители могли реагировать на сложные, зависящие от времени сценарии”, - сказал генерал ВВС. Энтони Коттон, глава Стратегического командования США (STRACOM), заявил об этом в своем программном выступлении на всемирной конференции Министерства обороны по разведывательным информационным системам 2024 года в октябре прошлого года. “Обрабатывая огромные объемы данных, предоставляя полезную информацию и позволяя принимать более обоснованные и своевременные решения, искусственный интеллект расширит наши возможности по принятию решений, но мы никогда не должны позволять искусственному интеллекту принимать эти решения за нас. Передовые системы могут информировать нас быстрее и эффективнее, но мы всегда должны учитывать решения, принимаемые человеком”.
Коттон подробно остановился на этом во время выступления в аналитическом центре Центра стратегических и международных исследований (CSIS), которое состоялось в ноябре 2024 года.
“Если мы считаем, что стратегическое командование Соединенных Штатов не может воспользоваться преимуществами искусственного интеллекта для сохранения терабайт данных, которые в противном случае были бы утеряны, и по-прежнему действовать по старинке, не принимая решений, а планируя усилия, повышая эффективность, тогда мы могли бы с таким же успехом... уйти посмотрите на наше прекрасное здание и просто зайдите во что-нибудь, где есть поворотные телефоны”, - сказал он.
“Я бы предпочел, чтобы у меня была возможность, если бы меня попросил об этом, знаете ли, президент – например, президент сказал: "Хорошо, вот что я хочу, чтобы вы сделали", – я бы предпочел сказать: "Хорошо, господин президент, подождите. Я перезвоню вам через пару часов, и мы поговорим о том, как мы можем это осуществить”, - продолжил Коттон. “Знаете, для меня было бы гораздо приятнее иметь возможность сказать: "Да, господин президент, дайте мне пару минут, и мы вернемся к вам с некоторыми вариантами". Это то, о чем я говорю, верно?”
“Знаете, в военных играх есть такая машина, которая называется WOPR [War Operation Plan Response, произносится как "громадина"]. Итак, WOPR на самом деле была той машиной с искусственным интеллектом, которой все боятся. И знаете что? У нас, знаете ли, нет WOPR в штаб-квартире STRATCOM. И никогда не было бы WOPR в штаб-квартире STRATCOM, - добавил Коттон. “Я не об этом говорю. Я говорю о том, как мне, ну, вы понимаете, как мне получить и повысить эффективность использования продуктов ISR [разведки, наблюдения и рекогносцировки], понимаете? Как мне, знаете ли, повысить эффективность в понимании того, в каком состоянии находятся мои подразделения? Знаете, это те вещи, в которых искусственный интеллект и машинное обучение могут нам абсолютно помочь и действительно сэкономить массу времени на выполнение подобных задач”.
Еще предстоит выяснить, помогут ли подобные заверения или вчерашние заявления Гебары, Ноймана и Роуза о том, что человек всегда должен быть в курсе событий, развеять опасения по поводу использования искусственного интеллекта в архитектуре NC3. Ясно лишь то, что эта дискуссия не прекратится в ближайшее время.
Аномальные новости со всего мира: ufonews.su/news137/784.htm