Конфликт интересов: Anthropic отказывается снять ограничения для военных
CEO Anthropic Дарио Амодей заявил о давлении со стороны оборонного ведомства США, требующего убрать запреты на использование ИИ для автономного оружия и массовой слежки.
CEO Anthropic Дарио Амодей заявил о давлении со стороны оборонного ведомства США, требующего убрать запреты на использование ИИ для автономного оружия и массовой слежки.
3 мин

Компания Anthropic, разработчик языковых моделей Claude, оказалась в центре серьезного противостояния с оборонным ведомством США (в тексте заявления оно названо Department of War). Генеральный директор Дарио Амодей выпустил официальное заявление, в котором обозначил жесткую позицию компании: несмотря на активное сотрудничество с военными, Anthropic отказывается снимать ограничения на два конкретных сценария использования ИИ — массовую слежку за гражданами и создание полностью автономного летального оружия.
Это заявление важно тем, что оно публично вскрывает напряжение между коммерческими разработчиками передового ИИ и государственным аппаратом, стремящимся к тотальному контролю над технологией в целях национальной безопасности.
Anthropic никогда не позиционировала себя как пацифистская организация в абсолютном смысле. В заявлении подчеркивается, что компания глубоко верит в необходимость защиты демократий и противостояния автократическим режимам. Более того, Anthropic уже работает с разведкой и военными, предоставляя свои модели для анализа данных, киберопераций и планирования.
Компания даже пошла на финансовые жертвы, отказавшись от сотен миллионов долларов выручки ради соблюдения экспортного контроля и блокировки доступа для структур, связанных с Китаем. Однако текущий конфликт показывает, что лояльность компании имеет четкие этические границы, которые государство пытается стереть.
Согласно заявлению Амодея, оборонное ведомство выдвинуло ультиматум: либо Anthropic соглашается на «любое законное использование» (any lawful use) и убирает свои защитные механизмы, либо компанию ждут серьезные последствия.
Угрозы со стороны государства выглядят беспрецедентно:
Амодей справедливо замечает противоречивость этих угроз: государство одновременно называет Claude критически важным для безопасности и угрожает объявить компанию риском для безопасности.
Anthropic выделяет две «красные линии», которые они отказываются пересекать:
Ситуация создает опасный прецедент. Если правительство США действительно применит Закон об оборонном производстве для принудительного снятия этических ограничений (safety guardrails), это будет означать конец саморегулирования в сфере ИИ. Это сигнал всей индустрии: в вопросах национальной безопасности этика частной компании может быть принудительно аннулирована.
Anthropic заявляет о готовности к плавной передаче дел другому подрядчику, если их «выгонят». Это демонстрирует уверенность в своей правоте и готовность потерять крупнейшего клиента ради сохранения принципов. Однако, учитывая стратегическую важность передовых моделей (frontier models), государству будет сложно найти равноценную замену, которая была бы полностью послушной и при этом технологически совершенной.
Мы наблюдаем классическую дилемму двойного назначения технологий, где грань между защитой демократии и созданием инструментов цифрового авторитаризма становится все тоньше.
Anthropic отказывается снять запрет на использование своих ИИ-моделей для автономного оружия и массовой слежки, несмотря на угрозы правительства США применить принудительные меры.
Государство попало в логическую ловушку: оно угрожает объявить Anthropic «риском для безопасности» и одновременно пытается принудить их к сотрудничеству, признавая их технологии критически важными.