
Спор по контракту между компанией Anthropic и Министерством обороны США обострился после заявления генерального директора Anthropic Дарио Амодеи о том, что компания «не может сознательно согласиться» на требование Пентагона предоставить неограниченный доступ к своим системам искусственного интеллекта. Министерство обороны установило крайний срок — до пятницы, 5:01 p.m. по восточному времени (27 февраля 2026 года) — для выполнения требований.
Anthropic разрабатывает чат-бот Claude и была одной из четырёх компаний, получивших летом контракт с Пентагоном на сумму до 200 миллионов долларов каждая; остальные получатели — OpenAI, Google и xAI. Компания стала первой технологической организацией, одобренной для работы в закрытых военных сетях, и пока остаётся единственной лабораторией передовой ИИ, имеющей системы, готовые для использования в режиме секретных военных сетей.
Предмет спора — два пункта, которые Anthropic настаивает оставить в контракте: запрет на использование Claude для массового наблюдения за американцами и запрет на полностью автономное оружие, принимающее решения без участия человека. Амодеи указал, что существуют узкие случаи, в которых применение ИИ может подорвать демократические ценности, и что некоторые задачи выходят за пределы того, что современные технологии могут выполнять безопасно и надёжно.
Представители Пентагона в ответ утверждают, что технологии, глубоко интегрированные в вооружённые силы, должны находиться под исключительным контролем избранных или назначенных руководителей страны, и что частные компании не могут диктовать нормативные условия использования. Чиновники также отрицали намерения использовать ИИ для внутреннего массового наблюдения или для создания полностью автономных боевых систем.
Anthropic заявляет, что переговоры о гарантиях безопасности ведутся уже несколько месяцев, но новая формулировка в контракте, полученная компанией незадолго до крайнего срока, по их словам, практически не продвигала защитные положения. Компания отмечает, что предложенные «компромиссные» формулировки сопровождались юридической оговоркой, которая позволяла бы игнорировать эти гарантии.
Одновременно Anthropic подчёркивает, что продолжает вести добросовестные переговоры и не прерывала обсуждение условий использования модели, стремясь продолжать поддержку национальной безопасности в пределах возможностей своих моделей. Компания заявила о готовности обеспечить плавный переход к другому поставщику на случай исключения из контрактов, чтобы не нарушать военное планирование и операции.
В ультиматуме Пентагона звучали и более жёсткие предупреждения: при несоблюдении требований контракт может быть расторгнут, компании может быть присвоена метка риска в цепочке поставок, или может быть использован Закон о производстве обороны. Метка риска в цепочке поставок обычно применяется к иностранным противникам и может повредить коммерческим партнёрствам компании.
Закон о производстве обороны, принятый в период холодной войны, даёт президенту полномочия требовать от компаний приоритизации или расширения производства для нужд национальной безопасности; представители оборонного ведомства заявляли, что при действии этого механизма руководители компаний могут быть принуждены предоставить расширенный доступ к продуктам по соображениям безопасности.
Amodei охарактеризовал одновременно выдвинутые угрозы как противоречивые: с одной стороны компанию называют риском для цепочки поставок, с другой — утверждают, что её технология важна для национальной безопасности. Эти формальные угрозы усилили напряжённость в переговорах.
Anthropic имеет партнёрские соглашения с рядом компаний, включая Palantir; сообщалось, что Claude применялся через контракт с Palantir в январской операции, завершившейся задержанием бывшего президента Венесуэлы Николаса Мадуро. Использование технологии в таких операциях вызвало дополнительную общественную и экспертную проверку.
Компания позиционирует себя как приверженная безопасности ИИ и регулярно публикует соответствующие отчёты. В одном из отчётов прошлого года Anthropic признала, что её технологии были использованы злоумышленниками для организации сложных кибератак, что усилило вопросы о рисках применения ИИ.
Внутри Пентагона звучала жёсткая критика в адрес руководства Anthropic. Заместитель министра обороны по исследованиям и инженерии подверг критике позицию Амодеи, утверждая, что тот стремится оказывать чрезмерный контроль над военными. При этом другие представители оборонного ведомства говорили о желании иметь доступ к моделям нескольких компаний для всех законных сценариев применения.
Ряд законодателей отреагировал на конфликт. Один сенатор назвал обсуждение в публичном поле непрофессиональным и призвал решать такие вопросы за закрытыми дверями, другой выразил обеспокоенность в связи с сообщениями о давлении на ведущую американскую компанию и подчеркнул необходимость принятия конгрессом надёжных механизмов регулирования ИИ в национальной безопасности.
Военные ветераны и эксперты по ИИ дали смешанную оценку ситуации. Бывший руководитель инициативы по использованию ИИ для анализа данных наблюдал за историей Project Maven и заявил о сочувствии к позициям Anthropic, отметив, что крупные языковые модели пока не готовы для полностью автономных решений в сфере национальной безопасности и что оговорённые компанией «красные линии» выглядят разумными.
Конфликт разгорается на фоне изменений в руководстве юридических служб Пентагона. В феврале 2026 года, спустя несколько недель после назначения на пост, министр обороны отстранил главных юрисконсультов армии и военно-воздушных сил без подробных объяснений; руководитель юриспруденции ВМС ранее ушёл в отставку вскоре после выборов в конце 2024 года.
По мере приближения крайнего срока Amodei отметил, что у Министерства обороны есть право выбирать подрядчиков в соответствии со своей стратегией, и выразил надежду на пересмотр позиции ведомства. Он также пообещал, что в случае вывода Anthropic из работы с военными компания обеспечит плавный переход к другому поставщику, чтобы избежать сбоев в текущих операциях и планировании.

Комментариев