Моя душа
Искусственный интеллект все чаще определяет военные стратегии и операции на поле боя, и Министерство обороны США стремится обеспечить безопасность и устойчивость своих боевых систем с искусственным интеллектом. Агентство перспективных исследовательских проектов в области обороны (DARPA) недавно объявило о запуске программы обеспечения эффективной надежности ИИ на поле боя (SABER). Эта программа предназначена для организации оперативного процесса совместной работы с ИИ для оценки уязвимостей в системах обороны с поддержкой ИИ.

читать дальше
Учитывая, что потенциальные противники постоянно ищут способы использовать слабые места в искусственном интеллекте, SABER попытается обеспечить сохранение военно-технологического превосходства Америки. Поскольку Пентагон готовится к будущему, в котором искусственный интеллект будет играть центральную роль в военных действиях, инициатива будет направлена на выявление и снижение рисков для безопасности, предотвращение потенциальных манипуляций, которые могут поставить под угрозу выполнение критически важных задач.
“Сегодня все еще существует ограниченная возможность оперативной оценки развернутых военных систем с поддержкой искусственного интеллекта на предмет наличия уязвимостей, связанных с противодействием, и ”теоретические" атаки с использованием искусственного интеллекта практически не были продемонстрированы в оперативных условиях", - говорится в специальном уведомлении, опубликованном DARPA. - В результате риски оперативной безопасности боевых систем с поддержкой искусственного интеллекта остаются в значительной степени неизвестными”.
Пентагон давно осознал потенциал ИИ для улучшения боевых действий. Автономные системы на базе ИИ могут ускорить принятие решений, повысить точность и снизить нагрузку на солдат-людей.
Использование искусственного интеллекта расширяется - от разведывательных беспилотников до автоматизированных систем обнаружения угроз, - и эти технологии внедряются в военные структуры беспрецедентными темпами.
Однако эти достижения сопряжены со значительными рисками. Модели машинного обучения могут быть уязвимы для атак противника, при которых противник манипулирует входными данными, чтобы обмануть систему.
Это может включать случаи, когда поврежденные данные искажают способность модели корректно функционировать, или использование ложных сигналов, которые обманывают системы компьютерного зрения, заставляя их неправильно идентифицировать объекты. Особую обеспокоенность вызывают атаки с целью кражи моделей, которые могут позволить противникам копировать и использовать американские системы искусственного интеллекта на поле боя.
Несмотря на обширные исследовательские усилия, предпринятые за последнее десятилетие для выявления этих рисков, практические оценки уязвимостей ИИ в реальных условиях остаются ограниченными. Пентагон в настоящее время принимает упреждающие меры для обеспечения того, чтобы развернутые системы ИИ могли противостоять реальным угрозам.
Программа SABER от DARPA отражает растущую потребность в надежной системе безопасности с использованием искусственного интеллекта. В недавнем объявлении, опубликованном в День подачи заявок, говорится, что программа призвана объединить элитную команду специалистов, которым поручено тестирование и оценка боевых систем, основанных на искусственном интеллекте.
Команда SABER AI red разработает и применит передовые методы противоборства с ИИ, кибер- и радиоэлектронной борьбы для оценки слабых мест и разработки стратегий по их устранению. Первоначально основное внимание будет уделено автономным наземным и воздушным системам, которые, как ожидается, будут развернуты в течение следующих 1-3 лет.
Чтобы усилить команду DARPA по AI-red, SABER ищет специалистов в различных областях, включая методы противодействия ИИ, методологии кибербезопасности, меры физической безопасности и интеграцию инструментов безопасности во всеобъемлющую систему совместной работы AI-red. Главной целью будет создание устойчивой модели для оценки безопасности боевых систем с искусственным интеллектом до их развертывания в боевых сценариях.
Для достижения целей программы DARPA проводит 12 марта 2025 года в Арлингтоне, штат Вирджиния, День разработчиков гибридных систем. Мероприятие, закрытое для публики, направлено на предоставление информации о технических целях программы, ответы на вопросы и поощрение сотрудничества между исследователями и лидерами отрасли.
День подачи заявок будет включать в себя три сессии: одну, предназначенную только для граждан США, другую, предназначенную только для граждан США из американских организаций, и, наконец, одну, открытую для участников из других стран.
Пентагон пока не объявил о сумме контракта по программе SABER. Однако программа будет осуществляться Управлением информационных инноваций DARPA.
Поскольку военные действия, основанные на искусственном интеллекте, становятся неизбежными, враждующие страны почти наверняка разрабатывают свои собственные возможности для компрометации оборонных технологий. Инвестируя в превентивные меры безопасности боевых систем с искусственным интеллектом, США постараются избежать потенциальных угроз, укрепляя свои позиции мирового лидера в области оборонных технологий.
В конечном счете, безопасность с помощью искусственного интеллекта распространяется далеко за пределы поля боя. Если оставить уязвимости в системах искусственного интеллекта незащищенными, они могут быть использованы в военных операциях и гражданской инфраструктуре, финансовых системах и системах обеспечения национальной безопасности.
SABER представляет собой важный шаг в объединении систем искусственного интеллекта, защищая их от потенциальных угроз и гарантируя, что технологические достижения не станут помехой.
В то время как SABER стремится повысить безопасность ИИ, роль искусственного интеллекта в военных действиях остается спорной. Существуют опасения по поводу автономности в принятии решений, связанных с летальным исходом, и потенциальных непредвиденных последствий.
В настоящее время несколько программ Министерства обороны изучают этические и юридические границы искусственного интеллекта и повышают надежность систем, задействованных в миссиях по обеспечению национальной безопасности.
Кроме того, быстрое развитие возможностей ИИ требует принятия мер безопасности, которые могут постоянно адаптироваться. Методы ведения боевых действий становятся все более изощренными, что требует постоянных исследований и разработок, чтобы не отставать от возникающих угроз. Задача заключается в выявлении уязвимостей и обеспечении устойчивости боевых систем ИИ с течением времени.
Активно выявляя и устраняя уязвимые места, вооруженные силы США делают решающий шаг к обеспечению того, чтобы будущие военные действия оставались эффективными и безопасными.
В недавней служебной записке министр обороны Питер Хегсет определил “важнейшую кибербезопасность” как один из 17 приоритетов национальной обороны “Америка прежде всего”. Продвижение Пентагона с помощью SABER отражает более широкий стратегический сдвиг, в котором учитываются как потенциал искусственного интеллекта, так и риски в военных операциях.
Поскольку искусственный интеллект продолжает переосмысливать современное поле боя, такие программы, как SABER, будут иметь решающее значение для определения устойчивости оборонного потенциала США в обозримом будущем.
Тим Макмиллан - отставной сотрудник правоохранительных органов, журналист-расследователь и один из основателей журнала The Debrief. Его статьи обычно посвящены обороне, национальной безопасности, разведывательному сообществу и темам, связанным с психологией.
ufonews.su/news137/497.htm

Учитывая, что потенциальные противники постоянно ищут способы использовать слабые места в искусственном интеллекте, SABER попытается обеспечить сохранение военно-технологического превосходства Америки. Поскольку Пентагон готовится к будущему, в котором искусственный интеллект будет играть центральную роль в военных действиях, инициатива будет направлена на выявление и снижение рисков для безопасности, предотвращение потенциальных манипуляций, которые могут поставить под угрозу выполнение критически важных задач.
“Сегодня все еще существует ограниченная возможность оперативной оценки развернутых военных систем с поддержкой искусственного интеллекта на предмет наличия уязвимостей, связанных с противодействием, и ”теоретические" атаки с использованием искусственного интеллекта практически не были продемонстрированы в оперативных условиях", - говорится в специальном уведомлении, опубликованном DARPA. - В результате риски оперативной безопасности боевых систем с поддержкой искусственного интеллекта остаются в значительной степени неизвестными”.
Пентагон давно осознал потенциал ИИ для улучшения боевых действий. Автономные системы на базе ИИ могут ускорить принятие решений, повысить точность и снизить нагрузку на солдат-людей.
Использование искусственного интеллекта расширяется - от разведывательных беспилотников до автоматизированных систем обнаружения угроз, - и эти технологии внедряются в военные структуры беспрецедентными темпами.
Однако эти достижения сопряжены со значительными рисками. Модели машинного обучения могут быть уязвимы для атак противника, при которых противник манипулирует входными данными, чтобы обмануть систему.
Это может включать случаи, когда поврежденные данные искажают способность модели корректно функционировать, или использование ложных сигналов, которые обманывают системы компьютерного зрения, заставляя их неправильно идентифицировать объекты. Особую обеспокоенность вызывают атаки с целью кражи моделей, которые могут позволить противникам копировать и использовать американские системы искусственного интеллекта на поле боя.
Несмотря на обширные исследовательские усилия, предпринятые за последнее десятилетие для выявления этих рисков, практические оценки уязвимостей ИИ в реальных условиях остаются ограниченными. Пентагон в настоящее время принимает упреждающие меры для обеспечения того, чтобы развернутые системы ИИ могли противостоять реальным угрозам.
Программа SABER от DARPA отражает растущую потребность в надежной системе безопасности с использованием искусственного интеллекта. В недавнем объявлении, опубликованном в День подачи заявок, говорится, что программа призвана объединить элитную команду специалистов, которым поручено тестирование и оценка боевых систем, основанных на искусственном интеллекте.
Команда SABER AI red разработает и применит передовые методы противоборства с ИИ, кибер- и радиоэлектронной борьбы для оценки слабых мест и разработки стратегий по их устранению. Первоначально основное внимание будет уделено автономным наземным и воздушным системам, которые, как ожидается, будут развернуты в течение следующих 1-3 лет.
Чтобы усилить команду DARPA по AI-red, SABER ищет специалистов в различных областях, включая методы противодействия ИИ, методологии кибербезопасности, меры физической безопасности и интеграцию инструментов безопасности во всеобъемлющую систему совместной работы AI-red. Главной целью будет создание устойчивой модели для оценки безопасности боевых систем с искусственным интеллектом до их развертывания в боевых сценариях.
Для достижения целей программы DARPA проводит 12 марта 2025 года в Арлингтоне, штат Вирджиния, День разработчиков гибридных систем. Мероприятие, закрытое для публики, направлено на предоставление информации о технических целях программы, ответы на вопросы и поощрение сотрудничества между исследователями и лидерами отрасли.
День подачи заявок будет включать в себя три сессии: одну, предназначенную только для граждан США, другую, предназначенную только для граждан США из американских организаций, и, наконец, одну, открытую для участников из других стран.
Пентагон пока не объявил о сумме контракта по программе SABER. Однако программа будет осуществляться Управлением информационных инноваций DARPA.
Поскольку военные действия, основанные на искусственном интеллекте, становятся неизбежными, враждующие страны почти наверняка разрабатывают свои собственные возможности для компрометации оборонных технологий. Инвестируя в превентивные меры безопасности боевых систем с искусственным интеллектом, США постараются избежать потенциальных угроз, укрепляя свои позиции мирового лидера в области оборонных технологий.
В конечном счете, безопасность с помощью искусственного интеллекта распространяется далеко за пределы поля боя. Если оставить уязвимости в системах искусственного интеллекта незащищенными, они могут быть использованы в военных операциях и гражданской инфраструктуре, финансовых системах и системах обеспечения национальной безопасности.
SABER представляет собой важный шаг в объединении систем искусственного интеллекта, защищая их от потенциальных угроз и гарантируя, что технологические достижения не станут помехой.
В то время как SABER стремится повысить безопасность ИИ, роль искусственного интеллекта в военных действиях остается спорной. Существуют опасения по поводу автономности в принятии решений, связанных с летальным исходом, и потенциальных непредвиденных последствий.
В настоящее время несколько программ Министерства обороны изучают этические и юридические границы искусственного интеллекта и повышают надежность систем, задействованных в миссиях по обеспечению национальной безопасности.
Кроме того, быстрое развитие возможностей ИИ требует принятия мер безопасности, которые могут постоянно адаптироваться. Методы ведения боевых действий становятся все более изощренными, что требует постоянных исследований и разработок, чтобы не отставать от возникающих угроз. Задача заключается в выявлении уязвимостей и обеспечении устойчивости боевых систем ИИ с течением времени.
Активно выявляя и устраняя уязвимые места, вооруженные силы США делают решающий шаг к обеспечению того, чтобы будущие военные действия оставались эффективными и безопасными.
В недавней служебной записке министр обороны Питер Хегсет определил “важнейшую кибербезопасность” как один из 17 приоритетов национальной обороны “Америка прежде всего”. Продвижение Пентагона с помощью SABER отражает более широкий стратегический сдвиг, в котором учитываются как потенциал искусственного интеллекта, так и риски в военных операциях.
Поскольку искусственный интеллект продолжает переосмысливать современное поле боя, такие программы, как SABER, будут иметь решающее значение для определения устойчивости оборонного потенциала США в обозримом будущем.
Тим Макмиллан - отставной сотрудник правоохранительных органов, журналист-расследователь и один из основателей журнала The Debrief. Его статьи обычно посвящены обороне, национальной безопасности, разведывательному сообществу и темам, связанным с психологией.
ufonews.su/news137/497.htm