
Anthropic представила бета‑версию функции Code Review в рамках планов Claude Code for Teams и Enterprise. Инструмент использует команды агент‑модулей для анализа новых блоков кода с целью выявления ошибок и других проблем.
По сути это работает как коллегиальная проверка: помогает обнаруживать баги на ранней стадии, поддерживать согласованность кода и повышать качество программного обеспечения.
Появление такой функции выглядит логичным. Сначала были выпущены инструменты для агентного написания кода, которые увеличили объём генерируемого кода, затем возникла потребность в автоматизированных проверках, чтобы справиться с ростом запросов на ревью.
По словам Кэт Ву, руководителя продукта Claude Code в Anthropic, использование Claude Code активно растёт, особенно в корпоративном секторе. Руководители компаний всё чаще спрашивают, как эффективно обрабатывать увеличивающееся количество pull request.
Pull request используются разработчиками для отправки изменений на проверку перед внедрением. Рост генерации кода привёл к резкому увеличению числа pull request, что создало узкие места в процессе вливания изменений в основную кодовую базу.
Ву отмечает, что Code Review создан именно для решения этой проблемы: по мере внедрения Claude Code команды начали создавать гораздо больше pull request, чем раньше.
Это смещает бремя на тех, кто проверяет код, поскольку один инженер и один запрос могут породить корректно выглядящий pull request, требующий детальной проверки крайних случаев со стороны ревьюера.
По описанию компании, Code Review направляет команду агентов, которые параллельно анализируют разные типы ошибок. По завершении они оставляют комментарий с выводами, отмечают найденные проблемы и предлагают возможные решения.
Агенты не одобряют pull requestы: финальное решение остаётся за разработчиком, который должен подтвердить и влить изменения в репозиторий.
Параллельно Anthropic подала два иска против Министерства войны после того, как стартап был признан риском для цепочки поставок. В компании заявляют, что будут больше фокусироваться на корпоративном сегменте, где число подписок выросло в четыре раза с начала 2026 года.
Anthropic также сообщает, что годовой доход Claude Code превысил 2,5 миллиарда долларов по текущей рун‑рейтовой оценке.
Ву подчёркивает, что продукт нацелен на крупных корпоративных клиентов, таких как Uber, Salesforce и Accenture, которые уже используют Claude Code и теперь нуждаются в помощи с большим объёмом создаваемых pull request.
Руководители разработки могут включать Code Review по умолчанию для всех инженеров команды. При включении система интегрируется с GitHub, автоматически анализирует pull request и оставляет комментарии непосредственно в них.
В приоритете — поиск логических ошибок, а не стилистических правок, поскольку предыдущая автоматизированная обратная связь часто не давала конкретных шагов для исправления.
Anthropic утверждает, что Code Review объясняет ход рассуждений пошагово, описывает суть проблемы и её возможные последствия, а затем предлагает варианты исправления. Система маркирует серьёзность проблем и агрегирует результаты, удаляя дубликаты и выстраивая приоритеты.
Кроме того, предусмотрен модуль анализа безопасности с возможностью настройки дополнительных проверок в соответствии с корпоративными практиками. Компания предупреждает, что продукт может потреблять много ресурсов и оплачивается по токен‑модели, со средней стоимостью примерно 15–25 долларов в зависимости от сложности кода.
По мнению Ву, Code Review — это премиальный сервис поверх Claude Code, который станет критически важным при масштабировании генерации кода с помощью ИИ. Остаётся открытым вопрос, готовы ли компании в Индии платить примерно по 2500 рупий за токен за проверку pull request.


Комментариев