Применение технологий ИИ в системах принятиях решения военного назначения: за и против
Аннотация и ключевые слова
Аннотация:
Внедрение систем поддержки принятия решений (СППР) на основе искусственного интеллекта (ИИ) в процессы, связанные с применением военной силы, представляет собой один из наиболее значимых и противоречивых технологических сдвигов в современном обществе. В статье анализируется ключевые положения экспертного отчета Международного Комитета Красного Креста и Женевской академии международного гуманитарного права и прав человека, посвященного этой проблеме. Ее цель – структурировать дискуссию вокруг концептуальных различий между ИИ-СППР и автономными системами вооружения, выявить основные технические, правовые и этические риски, связанные с использованием ИИ в критических решениях, а также оценить предлагаемые меры по сохранению осмысленного человеческого контроля. На основе анализа делается вывод о том, что ключевой гуманитарной императивой является не запрет технологий, а разработка строгих ограничений, протоколов тестирования в человеко-машинном взаимодействии, обеспечивающих примат права и человеческого достоинства в условиях цифровизации войны.

Ключевые слова:
искусственный интеллект, системы поддержки принятия решений, военное дело, международное гуманитарное право, автономное оружие, человеческий контроль, этика, конфликт
Список литературы

1. ICRC and Geneva Academy. Expert Consultation Report on AI and Related Technologies in Military Decision-Making on the Use of Force in Armed Conflicts. Geneva: ICRC, March 2024.

2. International Committee of the Red Cross. “ICRC Position Paper: Artificial intelligence and machine learning in armed conflict: A human-centred approach.” International Review of the Red Cross, March 2021.

3. International Committee of the Red Cross. “ICRC position on autonomous weapon systems.” 12 May 2021.

4. Holland Michel, Arthur. Decisions, Decisions, Decisions: Computation and Artificial Intelligence in Military Decision-Making. ICRC, March 2024.

5. Ekelhof, Merel, and Giacomo Persi Paoli. “The human element in decisions about the use of force.” UNIDIR, March 2020.

6. Boulanin, V., and M. Verbruggen. “Mapping the Development of Autonomy in Weapon Systems.” SIPRI, 2017.

7. Богданова Ж. Состязательные атаки (Adversarial Attacks) – что это такое и как они обманывают модели ИИ – Режим доступа: https://dtf.ru/id2687299/4082105-sostyazatelnye-ataki-kak-obmanyvayut-modeli-ii (дата обращения 05.12.2025)

8. Введение в Adversarial attacks: как защититься от атак в модели глубокого обучения на транзакционных данных – Режим доступа: https://habr.com/ru/companies/vtb/articles/718024/ (дата обращения 01.12.2025)

Войти или Создать
* Забыли пароль?