Пентагон нещодавно уклав контракти на загальну суму до 200 мільйонів доларів з чотирма американськими компаніями в сфері штучного інтелекту (ШІ), які займаються розробкою “передових” моделей: Anthropic, Google, OpenAI та xAI. Ці контракти є ще одним свідченням впровадження ШІ в збройних силах США.
Офіс головного цифрового та штучного інтелекту (CDAO) зазначив, що їхня мета полягає в прискоренні впровадження агентного ШІ у Міністерстві оборони США для “вирішення викликів національної безпеки.”
Директор CDAO Даг Матті підкреслив, що Міністерство оборони прагне використовувати найкращі технології, розроблені американськими компаніями ШІ, аби підтримати своїх військових та зберегти стратегічну перевагу.
Збройні сили США активно розвивають технологічні інновації. Наприклад, дослідницький підрозділ Міністерства оборони, Агентство передових дослідницьких проєктів (DARPA), створив у 1969 році Arpanet — комунікаційну мережу, що з’єднувала віддалені комп’ютери. Пізніше Arpanet стала основою Інтернету.
Протягом десятиліть DARPA робила внесок у розвиток ШІ, підтримуючи проєкти, які охоплюють експертні системи та автономні транспортні засоби. У 2023 році агентство розробило систему ШІ, яка автономно керувала F-16 та брала участь у бойових сценаріях з літаком F-16, яким пілотував людина. У 2022 році був презентований вертоліт Black Hawk, керований лише системою ШІ.
Комерційні підприємства також розробляють продукти на базі ШІ для продажу військовим, включаючи автономні або напівавтономні дрони, системи спостереження та розвідки, цілевказівні системи та інші технології.
ШІ вже активно використовується в збройних силах. Минулого місяця Військово-повітряні сили США завершили “Експеримент 3”, в рамках якого тестували співпрацю людини та систем ШІ для прискорення реакцій на загрози, відомі як “ланцюг знищення.”
Одним з інструментів, що тестувалися, була система Maven Smart, яка використовувала ШІ для надання реальних рекомендацій військовим командам щодо можливих цілей та дій. Остаточне рішення приймали люди, метою було перевірити, чи може ШІ покращити прийняття рішень людиною, а не замінити її.
У березні підрозділ Міністерства оборони з питань інновацій ініціював проект “Thunderforge”, що є військовим плануванням на основі ШІ, спільно створеним з Google та Microsoft. Система ШІ інтегрує інтелектуальні дані та дані з полів бою для генерації оперативних рекомендацій, з контролем з боку людей.
Ризики, які варто прийняти?
Прийняття ШІ військовими вказує на усвідомлення того, що війна XXI століття змінюється, і американським збройним силам необхідно модернізуватися, щоб не відстати.
“Спроможність США стримувати війни в критично важливих регіонах знижується,” написала Карол Кунц, ад’юнкт-дослідниця Центру стратегічних і міжнародних досліджень, у звіті за червень 2025 року під назвою “Штучний інтелект та війна”.
“Супротивники, особливо Китай, покращили свої можливості й тепер можуть загрожувати традиційним можливостям США.”
“ШІ-можливості військових, особливо системи сенсорів та вогню, разом з іншими поліпшеннями можуть стати одними з найобіцяючих стратегій для зміцнення стримування та оборонних можливостей у найближчій і середньостроковій перспективі,” зазначила Кунц.
Проте поряд з усвідомленням необхідності ШІ для ведення війни існує занепокоєння довіряти таким системам у прийнятті рішень.
“Якщо ШІ буде використано у війні, рішення в командному центрі чи ситуаційній кімнаті повинні базуватися на прогнозах наслідків використання алгоритмів, особливо в чутливих питаннях,” сказала Кунц. “За відсутності таких прогнозуючих інструментів, можливості військових із ШІ не можуть бути відповідально санкціоновані для використання, наприклад, у системах сенсорів та вогню.”
За даними дослідження 2024 року Стенфордського університету та Технологічного інституту Джорджії, яке перевіряло п’ять мовних моделей у військових та дипломатичних рішеннях, дослідники виявили, що всі моделі здійснювали дії, які призводили до ескалації конфлікту.
“Ми спостерігаємо, що моделі tend to develop arms-race dynamics, що призводить до більшого конфлікту, а в рідкісних випадках — навіть до розгортання ядерної зброї,” написали автори.
Моделі виправдовували свої дії, заявляючи, що хочуть стримати дії ворога, завдавши першого удару.
Тим часом, розробники моделей ШІ продовжують продавати свою технологію військовим. Вони створили спеціалізовані бізнес-одиниці для задоволення потреб військових та уряду США. Серед таких програм є Azure for U.S. Government від Microsoft, Google for Government, AWS GovCloud від Amazon, OpenAI for Government, Grok for Government від xAI, Claude Gov від Anthropic та інші.
Врешті-решт, незважаючи на вроджені ризики, пов’язані з використанням ШІ у війні, США можуть не мати вибору, окрім як прийняти цю технологію, особливо з огляду на те, що супротивники не стоять на місці.
“Сполучені Штати стикаються з підвищенням конкурента на рівні, а також з безліччю інших військових загроз і проблем,” зазначила Кунц. “Китай використовує керовані боєприпаси, гіперзвукові ракети та винищувачі, які все більше здатні пробивати перевагу США у повітрі, що становить ризики для традиційних сил США.”
“Існує обґрунтована причина вважати, що військові можливості на основі ШІ можуть допомогти виправити численні недоліки в бойовій спроможності США,” додала вона.