Этический разрыв: почему Anthropic отказалась от контракта с Пентагоном
Детали срыва сделки между Anthropic и Министерством обороны США: разногласия вокруг автономного оружия и массовой слежки, а также роль OpenAI в этой ситуации.
Детали срыва сделки между Anthropic и Министерством обороны США: разногласия вокруг автономного оружия и массовой слежки, а также роль OpenAI в этой ситуации.
3 мин

В начале марта 2026 года стало известно о разрыве отношений между компанией Anthropic и Министерством обороны США. До последнего момента руководство Anthropic полагало, что сделка состоится, однако переговоры зашли в тупик из-за двух критических этических вопросов: использования искусственного интеллекта для массовой слежки за гражданами и интеграции ИИ в автономные системы вооружения.
Пентагон в одностороннем порядке настоял на пересмотре условий контракта, стремясь убрать этические ограничения, которые Anthropic наложила на использование своих моделей. Это решение привело к тому, что Пит Хегсет (представитель Пентагона) приказал прекратить сотрудничество с компанией, призвав военных подрядчиков, включая Amazon, остановить работу с Anthropic.
Согласно источникам, знакомым с ходом переговоров, ситуация развивалась драматично. Пентагон изначально пытался оставить в договоре юридические лазейки, используя фразы вроде «по мере необходимости» (as appropriate), что позволяло бы обходить запреты на слежку и автономное оружие в зависимости от интерпретации ситуации администрацией.
Когда Anthropic удалось добиться удаления этих размытых формулировок, возникла новая проблема. В пятницу днем выяснилось, что Пентагон намерен использовать ИИ компании для анализа больших массивов данных, собранных об американских гражданах. Речь шла о перекрестном анализе:
Для руководства Anthropic это стало «красной линией», которую они отказались переступать.
Второй камень преткновения — автономное оружие (системы, способные выбирать и поражать цели без участия человека). В 2026 финансовом году бюджет США на такие разработки составил 13,4 миллиарда долларов. Anthropic не отрицала существование таких систем, но настаивала на том, что современные модели ИИ недостаточно надежны для доверия им решений о жизни и смерти.
Было предложено компромиссное решение: держать ИИ «в облаке», а не на самих устройствах (дронах), чтобы модель лишь анализировала разведданные, но не принимала решения о стрельбе. Однако Anthropic отвергла и этот вариант. Эксперты компании справедливо заметили, что в современной военной архитектуре грань между «облаком» и «краем» (edge) стирается. Дроны объединены в сети, и чем лучше связь с мощным облачным ИИ, тем «умнее» машина. Если ИИ принимает решения на сервере в Вирджинии, а дрон исполняет их в зоне боевых действий, этическая проблема остается нерешенной.
Интересно поведение других игроков рынка. Сэм Альтман, CEO OpenAI, ранее заявлял о солидарности с позицией Anthropic касательно автономного оружия. Однако, пока шли переговоры конкурента, Альтман согласовывал собственную сделку с Пентагоном. О ней было объявлено всего через несколько часов после провала переговоров Anthropic.
OpenAI заявила, что их ИИ будет развернут «только в облаке» — тот самый аргумент, который Anthropic сочла технически несостоятельным и этически бессмысленным. Это вызвало недовольство внутри самой OpenAI: около 100 сотрудников подписали открытое письмо, поддерживая жесткие ограничения, на которых настаивала Anthropic.
Этот инцидент четко очерчивает границы в индустрии ИИ. Anthropic позиционирует себя как принципиального игрока, готового терять огромные государственные контракты ради безопасности и этики. В то же время, готовность OpenAI занять освободившуюся нишу показывает, что спрос на военный ИИ будет удовлетворен в любом случае, вопрос лишь в том, кто именно предоставит технологии.
Ситуация также поднимает важный технический вопрос: можно ли действительно изолировать ИИ от «спускового крючка» в эпоху облачных вычислений и высокоскоростной связи? Похоже, что Anthropic считает этот разрыв иллюзорным, тогда как Пентагон и новые подрядчики готовы принять эту условность.
Anthropic отказалась от контракта с Пентагоном из-за требований разрешить массовую слежку за гражданами США и использование ИИ в автономном оружии, считая текущие технологии недостаточно надежными.
Разделение на «облачный ИИ» и «ИИ на устройстве» в военных системах становится фикцией: современные сетевые архитектуры позволяют облачным моделям фактически управлять дронами в реальном времени.