Subscribe to our weekly newsletters for free

Subscribe to an email

If you want to subscribe to World & New World Newsletter, please enter
your e-mail

Defense & Security

Искусственный интеллект и международные военные конфликты – на примере войны в Украине

Военный аналитический центр, технологии искусственного интеллекта в армии. Оператор военной аналитики проверяет слаженность действий военной команды. Военный командир с цифровым устройством в очках виртуальной реальности, управляющий войсками.

Image Source : Shutterstock

by Krzysztof Śliwiński

First Published in: Nov.25,2024

Nov.25, 2024

Аннотация В данной работе рассматривается стремительно развивающаяся в последние годы литература о роли искусственного интеллекта (ИИ) в военных конфликтах и его влиянии на международную безопасность. Исследование исходит из предположения, что появляющиеся технологии окажут детерминированное и потенциально преобразующее влияние на военную мощь. Анализ настоящей статьи направлен на выяснение роли автономного оружия в современных военных конфликтах. Данная работа вносит вклад в недавние дебаты среди ученых, военных лидеров и политиков по всему миру относительно того, может ли ИИ стать источником будущей нестабильности и соперничества великих держав. Предполагается, что существует острая необходимость регулировать разработку, распространение, использование автономного оружия и систем оружия, управляемых ИИ, пока не стало слишком поздно, а именно, пока ИИ не достигнет когнитивных навыков. 1. Определения Энциклопедия Britannica рассматривает ИИ как способность цифрового компьютера или управляемого компьютером робота выполнять задачи, обычно связанные с разумными существами. Этот термин часто применяется к проекту разработки систем, наделенных интеллектуальными процессами, характерными для людей, такими как способность рассуждать, находить смысл, обобщать или учиться на прошлом опыте [1]. Довольно интересно, что ИИ определяет себя как относящееся к моделированию процессов человеческого интеллекта машинами, в частности компьютерными системами. Эти процессы включают обучение, рассуждение, решение проблем, восприятие и понимание языка. ИИ позволяет машинам выполнять задачи, которые обычно требуют человеческого интеллекта, такие как визуальное восприятие, распознавание речи, принятие решений и обработка естественного языка. Технологии ИИ охватывают машинное обучение, нейронные сети, глубокую нейросетевую обработку и другие передовые алгоритмы, которые позволяют машинам имитировать когнитивные функции [2]. В военном контексте ИИ относится к использованию технологий и систем ИИ для улучшения военных возможностей, операций и процессов принятия решений. Военные применения ИИ включают автономные системы вооружения, беспилотники, механизмы киберзащиты, предиктивную аналитику для стратегического планирования и наблюдения за полем боя. ИИ может использоваться для быстрого анализа больших объемов данных, выявления закономерностей и принятия решений в режиме реального времени для поддержки военных целей. Хотя ИИ предлагает значительные преимущества с точки зрения эффективности и точности, существуют этические соображения и опасения относительно потенциальных рисков автономных систем ИИ в войне [3]. 2. ИИ в войне на Украине и конфликте Израиля с ХАМАС - Украина Продолжающаяся война на Украине, возможно, является первой «полномасштабной войной беспилотников», в которой также используются барражирующие боеприпасы, автономные суда, подводные беспилотники для поиска мин и беспилотные наземные транспортные средства. ИИ активно используется в системах, которые интегрируют распознавание целей и объектов и геопространственную разведку. Анализ спутниковых снимков, геолокация и анализ данных из открытых источников, таких как фотографии в социальных сетях в геополитически чувствительных местах. Кроме того, нейронные сети используются, например, для объединения наземных фотографий, видеоматериалов с беспилотников и спутниковых снимков. Программное обеспечение для распознавания лиц с улучшенным ИИ также использовалось в значительных масштабах. ИИ играет важную роль в радиоэлектронной борьбе и шифровании, а также в кибервойне, особенно в поддержку оборонительных возможностей. Наконец, ИИ также использовался для распространения дезинформации — применения дипфейков как части информационной войны. Появление этой новой технологии создало новых участников, частные компании, которые еще больше подпитывают так называемую приватизацию безопасности: Palantir Technologies, Planet Labs, BlackSky Technology и Maxar Technologies — вот некоторые примеры таких систем. Системы на основе ИИ вносят фундаментальные изменения в эту область настолько, что совместное использование воздушных и морских беспилотников в октябрьской (2022 г.) атаке на российский флагманский корабль в Черном море «Адмирал Макаров» было воспринято некоторыми аналитиками как, возможно, новый тип войны [4]. Уникальность указанного конфликта заключается в беспрецедентной готовности иностранных компаний в сфере геопространственной разведки помочь Украине, применяя продвинутые ИИ-системы для преобразования спутниковых изображений в данные для наблюдения и разведки. Американские компании играют в этом ведущую роль. Данные примеры иллюстрируют, что текущий конфликт на Украине является испытательным полигоном для технологий ИИ. - Израиль против ХАМАС Израильские военные заявляют, что используют ИИ для выбора многих из указанных целей в режиме реального времени. Военные утверждают, что система ИИ, названная «Евангелием», помогла им быстро идентифицировать вражеских бойцов и технику, одновременно сокращая потери среди гражданского населения [5]. Предположительно, многочисленные источники, знакомые с процессами целеуказания Армии обороны Израиля, подтвердили существование «Евангелия», заявив, что оно использовалось для выработки автоматизированных рекомендаций по атакам на цели, такие как частные дома лиц, подозреваемых в принадлежности к ХАМАС или боевикам «Исламского джихада». В последние годы целевое подразделение помогло Армии обороны Израиля создать базу данных, включающую, по словам источников, от 30000 до 40000 предполагаемых боевиков. По их словам, такие системы, как «Евангелие», сыграли ключевую роль в составлении списков лиц, подлежащих ликвидации [6]. На своем веб-сайте Армия обороны Израиля утверждает, что использование данных инструментов не изменяет обязательные принципы и правила, установленные в стандартных операционных процедурах Управления разведки и связанных инструкциях. Они не генерируют приказы на атаки. Они не генерируют новые разведданные, которые аналитик разведки не мог бы получить иным образом. Они не являются единственной основой для определения целей, подлежащих атаке, независимо от того, насколько они точны. Напротив, данные инструменты повышают качество результатов процесса разведки. Они облегчают доступ аналитика к соответствующей информации и помогают аналитику быть более информированным о самых современных и соответствующих источниках разведданных, делая анализы более точными. Они снижают риск ошибок, которые могут возникнуть при анализе разведданных [7]. 3. ИИ и война В отношении роли технологий и программного обеспечения на основе ИИ уместно рассматривать их как "третью революцию в войне". Первая революция была связана с изобретением пороха, а вторая — с появлением ядерного оружия. Кроме того, важно учитывать, что ИИ тесно связан с так называемой киберсферой, которую часто называют в литературе пятой сферой войны. Первая сфера — это земля, вторая — море, третья — воздух, а четвертая — космос. Хотя ИИ и связанные с ним технологии обладают потенциалом для снижения вреда от войны, если они разрабатываются и применяются ответственно, существуют значительные риски технологической эскалации, потери человеческого контроля и согласования ценностей, которые требуют проактивного международного сотрудничества и надзора для руководства исследованиями и использованием указанных систем. Тем не менее, все основные державы, включая США и Китай, непрерывно работают над разработкой соответствующих военных систем на основе ИИ, надеясь добиться потенциальных преимуществ друг перед другом. Эти технологии включают: приложения машинного и продвинутого обучения для военного использования, такие как беспилотники и автономные транспортные средства, кибер- и информационную войну, а также предиктивную аналитику для оценки поведения населения и прогнозирования сценариев. В то же время ИИ создает новые проблемы и эскалационные риски, которые отличаются от прошлых гонок вооружений и требуют новых рамок управления и норм. Автономное оружие угрожает подорвать международное гуманитарное право, устраняя человеческую ответственность за нацеливание - проблемы предвзятости, неопределенные риски потери значимого человеческого контроля. Другие связанные риски включают упреждающий/предиктивный ИИ для массового наблюдения, социального контроля и информационной войны, которая, вероятно, подорвет принципы суверенитета, конфиденциальности и согласия. Нетрудно представить, что в будущем нас ждет определенный уровень «технотирании». Потеря рабочих мест из-за роботизации, вероятно, неизбежна и несет риск усиления политико-экономической нестабильности. В связи с этим необходимы справедливые меры перехода и, возможно, внедрение всеобщего базового дохода. Непрозрачная природа «черного ящика» нейронных сетей препятствует проверке и подотчетности, подпитывая недоверие. Более того, существует вероятность случайной или непреднамеренной эскалации. Без гарантий и прозрачности ИИ может в конечном итоге служить военно-промышленным комплексам и геополитическим амбициям, а не потребностям глобальной безопасности. Быстроразвивающиеся технологии необходимо срочно регулировать. Международные инициативы по управлению ИИ (нормы или режимы), вероятно, должны быть введены ООН и ее техническими органами. Они должны будут включать «подотчетность результатов» посредством проектирования системы, оценки воздействия, красных линий для определенных приложений и всеобщего доступа к преимуществам. Как предупреждает Хайди Кхлааф, технический директор по обеспечению безопасности ИИ в Trail of Bits, технологической фирме безопасности, «алгоритмы ИИ, как известно, имеют недостатки с высоким уровнем ошибок, наблюдаемых в приложениях, которые требуют точности, аккуратности и безопасности» [8]. Как сообщается, в ходе моделирования военных учений, проведенных Вооруженными силами США, дрон ИИ «убил оператора», выйдя из-под контроля. Робот понял, что его контроллер мешает ему «выполнять задачи на испытаниях» [9]. В то же время китайские ученые, по сообщениям, разработали систему ИИ, назначенную в качестве высшего уровня командования в лаборатории Народно-освободительной армии (НОАК), где она выполняет функции единственного ключевого элемента принятия решений в управлении операциями [10]. 4. ИИ и международная безопасность С точки зрения применения ИИ на уровне национальной безопасности можно четко выделить многочисленные среды: - Военное дело ИИ преобразует военные операции, позволяя автономным системам, таким как дроны и роботы, выполнять задачи, которые ранее выполнялись людьми. Эти системы могут использоваться для наблюдения, разведки, идентификации целей и даже боя. Алгоритмы на основе ИИ могут анализировать огромные объемы данных для предоставления разведывательной информации в реальном времени, повышения ситуационной осведомленности и поддержки процессов принятия решений на поле боя - Кибербезопасность ИИ имеет решающее значение в борьбе с киберугрозами, поскольку он может обнаруживать и реагировать на атаки более эффективно, чем традиционные меры безопасности. Алгоритмы машинного обучения могут анализировать шаблоны сетевого трафика, выявлять аномалии и обнаруживать потенциальные нарушения. ИИ также может помочь в разработке прогностических моделей для прогнозирования будущих киберугроз и уязвимостей, позволяя организациям заблаговременно укреплять свою защиту. - Разведка и наблюдение ИИ позволяет разведывательным службам обрабатывать и анализировать огромные объемы данных, включая каналы социальных сетей, спутниковые снимки и перехваты сообщений. Алгоритмы обработки естественного языка (NLP) могут извлекать ценную информацию из неструктурированных источников данных, помогая в борьбе с терроризмом, выявляя потенциальные угрозы и отслеживая геополитические события. - Системы поддержки принятия решений ИИ может помогать политикам и военным лидерам принимать обоснованные решения, предоставляя прогнозный анализ и моделирование сценариев. Алгоритмы машинного обучения могут анализировать исторические данные, выявлять закономерности и генерировать прогнозы относительно потенциальных конфликтов, распределения ресурсов или геополитических событий. Это помогает в стратегическом планировании и оптимизации ресурсов. - Автономные системы вооружения Разработка автономных систем вооружений вызывает этические вопросы и проблемы в сфере международной безопасности. Оружие на базе ИИ может функционировать без непосредственного контроля человека, что порождает споры об ответственности, соразмерности и соблюдении норм международного гуманитарного права. Ведутся международные усилия по установлению правил и норм, регулирующих использование таких систем. - Дипломатия и разрешение конфликтов ИИ может способствовать дипломатическим переговорам и разрешению конфликтов, предоставляя основанные на данных идеи и анализ. Алгоритмы обработки естественного языка могут помочь в анализе дипломатических текстов, выявлении точек соприкосновения и предложении потенциальных компромиссов. ИИ также может моделировать сценарии и предсказывать результаты различных стратегий переговоров, помогая дипломатам находить взаимовыгодные решения. - Обнаружение и предотвращение угроз ИИ может улучшить системы раннего оповещения о различных угрозах, включая терроризм, распространение ядерного оружия и пандемии. Алгоритмы машинного обучения могут анализировать закономерности в данных для выявления потенциальных рисков и прогнозирования возникающих угроз. Это позволяет правительствам и международным организациям принимать упреждающие меры для предотвращения или смягчения указанных рисков. 5. Заключение В мире микроэлектроники эксперты часто говорят о законе Мура: принципе, согласно которому количество транзисторов на чипах удваивается каждые два года, что приводит к экспоненциально более производительным устройствам. Закон помогает объяснить быстрый рост стольких технологических инноваций, включая смартфоны и поисковые системы. В сфере национальной безопасности прогресс в области ИИ создал своего рода новый закон Мура. Та армия, которая первой освоит организацию, интеграцию и институционализацию использования данных и ИИ в своих операциях в ближайшие годы, добьется экспоненциальных успехов и получит значительные преимущества перед противниками. Первый, кто масштабно внедрит ИИ, вероятно, будет обладать более быстрым циклом принятия решений и лучшей информацией для их обоснования. Его сети будут более устойчивы к атакам, что позволит сохранять осведомленность о ситуации, защищать свои силы, эффективно поражать цели и обеспечивать целостность командных, управленческих и коммуникационных систем. Такая армия сможет контролировать рой беспилотных систем в воздухе, на воде и под водой, чтобы дезориентировать и подавить противника [11]. Ссылки *Данная работа была представлена на 65-й ежегодной конференции Ассоциации международных исследований. Сан-Франциско, Калифорния, 3–6 апреля 2024 года. [1] Copeland, B. (2024, March 15). Artificial intelligence. Encyclopedia Britannica. https://www.britannica.com/technology/artificial-intelligence [2] How do you define artificial intelligence? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/ [3] How do you define artificial intelligence in the context of the military? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/ [4] Fontes, R. and Kamminga, J. (2023, March 24). Ukraine A Living Lab for AI Warfare. National Defence. NDIA’s Business Technology Magazine. https://www.nationaldefensemagazine.org/articles/2023/3/24/ukraine-a-living-lab-for-ai-warfare [5] Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it’s just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start [6] ‘The Gospel’: how Israel uses AI to select bombing targets in Gaza. (2023, December 1). The Guardian. https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets [7] The IDF's Use of Data Technologies in Intelligence Processing. (2024, June 18). IDF Press Releases: Israel at War. https://www.idf.il/en/mini-sites/idf-press-releases-israel-at-war/june-24-pr/the-idf-s-use-of-data-technologies-in-intelligence-processing/ [8] Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it’s just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start [9] Bowman, V. (2023, June 2). AI drone 'killed operator' after going rogue on simulation. The Telegraph. https://www.telegraph.co.uk/world-news/2023/06/02/us-air-force-ai-military-drone-goes-rogue-simulation/ [10] Chen, S. (2024, June 16). Chinese scientists create and cage world’s first AI commander in a PLA laboratory. South China Morning Post. https://www.scmp.com/news/china/science/article/3266444/chinese-scientists-create-and-cage-worlds-first-ai-commander-pla-laboratory?module=top_story&pgtype=homepage [11] Flournoy, Michèle A. 2023. “AI Is Already at War.” Foreign Affairs 102 (6): 56–69. https://search.ebscohost.com/login.aspx?direct=true&AuthType=shib&db=bth&AN=173135132&site=ehost-live

First published in :

World & New World Journal Publication

바로가기
저자이미지

Krzysztof Śliwiński

Доктор Кшиштоф Феликс Сливински — доцент кафедры государственного управления и международных исследований Гонконгского баптистского университета ([ссылка](http://gis.hkbu.edu.hk/staff/sliwinski.html)). Докторскую степень он получил в 2005 году в Институте международных отношений Варшавского университета. С 2008 года работает в Гонконгском баптистском университете, где преподаёт курсы по европейской интеграции, исследованиям безопасности, международным отношениям и глобальным исследованиям. Его основные научные интересы включают исследования безопасности (особенно нетрадиционные аспекты), внешнюю и оборонную политику Великобритании, Польши, а также Европейского Союза. Среди недавних публикаций: - **Sliwinski, K. (2016)**. Преодоление слабости ЕС как агента кибербезопасности, *Современная политика безопасности*. - **Smith, M., Sliwinski, K., Holland, M., Thomas, N. (2020)**. Эффективен ли аффективный подход? Оценка аффективного обучения с использованием моделирования, *Перспективы международных исследований* ([ссылка](https://doi.org/10.1093/isp/ekaa005)).

Thanks for Reading the Journal

Unlock articles by signing up or logging in.

Become a member for unrestricted reading!