
Генеральный директор Anthropic Дарио Амодеи заявил, что компания не может с чистой совестью удовлетворить требование Пентагона о неограниченном доступе к её системам искусственного интеллекта. Он подчеркнул, что такое решение противоречит внутренним принципам компании и её оценке рисков.
В заявлении Amodei отметил, что Министерство обороны принимает военные решения, а не частные компании, однако выделил случаи, в которых использование ИИ может подрывать демократические ценности. По его словам, некоторые варианты применения также выходят за пределы того, что современные технологии способны выполнять безопасно и надёжно.
Anthropic назвала две особенно проблемные области: массовая слежка за гражданами США и полностью автономное оружие без участия человека. Пентагон, в свою очередь, считает, что должен иметь возможность использовать модель компании для любых законных задач и что частная фирма не должна самостоятельно определять допустимые способы применения.
Старший представитель Министерства обороны Джереми Льюин 27 февраля 2026 года заявил, что технологии, глубоко интегрированные в вооружённые силы, должны находиться под исключительным контролем избранных или назначенных руководителей, и что частная компания не вправе диктовать нормативные условия их использования. Его позиция отражает беспокойство ведомства о принципе гражданского контроля над военными технологиями.
Заявление Амодеи было выпущено менее чем за сутки до срока, который министр обороны Пит Хегсетх установил для Anthropic, требуя уступок или угрожая последствиями. Представитель Anthropic сообщил, что само заявление не означает выхода компании из переговоров и что она по-прежнему ведёт добросовестные консультации с ведомством.
В пресс-релизе Anthropic указали, что контрактные формулировки, полученные от Министерства обороны «за ночь», практически не продвигают защиту от использования модели Claude для массовой слежки или в автономном оружии. Новые формулировки, представленные как компромисс, сопровождались юридическими оговорками, которые по сути могли бы позволить игнорировать эти гарантии.
Пентагон предпринимает меры давления, включая угрозы классифицировать Anthropic как риск для цепочки поставок или применить Закон о производстве в интересах обороны (Defense Production Act), чтобы обязать компанию выполнять требования ведомства. Закон даёт президенту полномочия принудительно перераспределять производственные ресурсы в интересах национальной обороны.
Амодеи указал на явное противоречие между этими подходами: с одной стороны Anthropic ставят в разряд безопасности́х рисков, а с другой — называют систему Claude необходимой для национальной безопасности. Это, по его словам, затрудняет логику требований ведомства.
Anthropic остаётся единственной передовой лабораторией ИИ, обладающей системами, готовыми к работе с классифицированными данными для военных нужд, тогда как Министерство обороны, по сообщениям, готовит и другие решения, включая работу с xAI. Компания подчёркивает, что предпочла бы продолжить сотрудничество при сохранении двух запрошенных защитных мер.
Амодеи добавил, что в случае если Министерство решит отказаться от сотрудничества с Anthropic, компания постарается обеспечить плавный переход к другому поставщику, чтобы не допустить сбоев в планировании и оперативной деятельности вооружённых сил. Он также дал понять, что расставание может пройти без эскалации конфликта между сторонами.


Комментариев