Как компания Anthropic оказалась в поле зрения Пентагона

Как компания Anthropic оказалась в поле зрения Пентагона


97
20 поделились, 97 баллы

До недавнего времени Anthropic оставалась относительно незаметной компанией на фоне бумa искусственного интеллекта: оценивалась примерно в 350 миллиардов долларов, но редко становилась источником громких заголовков или публичных споров в той мере, как OpenAI или xAI. Её сооснователь и гендиректор Дарио Амодеи был известен в индустрии, но не широко известен за пределами Силиконовой долины, а чатбот Claude уступал по популярности ChatGPT.

Ситуация изменилась после публичного конфликта с министерством обороны США: Anthropic отказалась допускать использование Claude для внутренних массовых наблюдений и автономного оружия, способного поражать людей без участия человека. Компания отвергла требование Пентагона о заключении соглашения в установленный срок, что вызвало резкую реакцию со стороны Пита Хегсета, который обвинил фирму в «высокомерии и предательстве» и призвал партнёров прекратить с ней сотрудничество.

Последовавшие события усугубили кризис: OpenAI объявила о собственной сделке с Пентагоном, что вызвало протесты сотрудников и привело к публичным нападкам между руководителями компаний, после чего Дарио Амодеи принес извинения за часть своих выражений. В это же время бывший президент Дональд Трамп резко раскритиковал Anthropic и заявил, что уволил бы их «как собак». Пентагон официально присвоил компании статус угрозы в цепочке поставок, впервые применив такую маркировку к американской фирме, что может иметь серьёзные финансовые последствия при полном исполнении.

Спор обострил вопросы о том, как ИИ будет использоваться в военных операциях и кто несёт за это ответственность, а также стал одним из крупнейших разногласий между технологической отраслью и администрацией Трампа. Быстрое внедрение технологий вооружёнными силами, в том числе в контексте конфликта с Ираном, превратило ранее гипотетические этические дилеммы в реальные испытания для разработчиков ИИ.

Противоречия внутри Anthropic заметны: компания заявляла о миссии по созданию «безопасного» будущего для ИИ, но при этом заключала крупные партнёрства для секретных проектов с Пентагоном и с поставщиком систем наблюдения Palantir. Руководство выражало серьёзную озабоченность экзистенциальными рисками ИИ, однако компания отказывалась от одного из исходных обязательств по безопасности, ссылаясь на темп конкурентной гонки. При этом разработка моделей сопровождалась активным привлечением данных, включая процессы, упоминавшиеся в судебных документах, связанные со сканированием и уничтожением миллионов физических книг для обучения Claude.

Тем не менее недавняя конфронтация показала, что у Anthropic есть линии, которых она не готова пересечь, что выделяет её на фоне отрасли, которая во многом подстраивалась под требования администрации. В краткосрочной перспективе это принесло компании выгоду в плане общественного восприятия: интерес к Claude вырос после срыва сделки, а репутация некоторых конкурентов оказалась под давлением.

На запросы о комментариях по материалу компания не ответила. Представители Anthropic официальных разъяснений по этим событиям не предоставили.

Долгосрочные последствия остаются неясными: ряд подрядчиков оборонной промышленности и ведомств уже начинают дистанцироваться от моделей Anthropic, а администрация намерена наказать компанию за несогласие. Anthropic объявила о намерении оспорить в суде присвоение ей статуса рисковой в цепочке поставок, и в последние дни, по сообщениям, Дарио Амодеи вновь вступил в переговоры с представителями Пентагона в попытке найти решение.

Компания, позиционировавшая себя как «в первую очередь — о безопасности», была основана Амодеи и рядом бывших сотрудников OpenAI в 2021 году. Anthropic объявила о приверженности принципам безопасности и формулировала набор правил, который сравнивала с конституцией, по которому намеревалась развивать свои системы.

В 2024 году Амодеи опубликовал крупную эссеистическую работу с утопическими представлениями о роли ИИ: он предполагал, что технологии могут помочь в борьбе с раком, предотвратить многие инфекционные болезни и снизить экономическое неравенство. Вместе с тем он выражал скепсис в отношении идеи, что ИИ непременно будет способствовать укреплению демократии и мира.

Амодеи, имеющий докторскую степень по биофизике, давно выражал беспокойство по поводу экзистенциальных рисков ИИ и проводил параллели с созданием ядерного оружия. В этих рассуждениях он отсылает к литературе, анализирующей исторические примеры технологических рисков и их последствий.

Связи Anthropic с течениями, подобными «эффективному альтруизму», обсуждаются в отрасли: сами основатели это отрицают, но ряд принципов компании перекликается с идеями о максимизации долгосрочной пользы для человечества. Некоторые ранние инвесторы и близкие к компании фигуры имели отношения к движениям филантропического характера, что добавляло контекста к критике со стороны политиков.

Критики движения по безопасности ИИ за пределами Пентагона указывают, что фокус на экзистенциальных угрозах может отвлекать от более насущных проблем — системных предубеждений и повседневного вреда от алгоритмов. Некоторые исследователи отмечают, что такие опасения порой кажутся оторванными от реальных, ближних по времени рисков.

Разлом внутри дискуссии о безопасности — между широкими вопросами «AI Safety» и практическими задачами этики ИИ — частично объясняет, почему компания, декларирующая заботу о человечестве, одновременно допускает использование своих технологий в интересах разведки и обороны.

Представители по этике отмечают, что позиция Anthropic не обязательно означает принципиальное неприятие военного применения, а скорее стремление к контролю над тем, как и для каких целей технологии используются, оставляя окончательные решения за государственными структурами.

Переход от заяв о безопасности к реальному внедрению в военную сферу происходил поэтапно: в отличие от ориентированного на массового пользователя ChatGPT, Claude разрабатывался с упором на корпоративные интеграции и рабочую инфраструктуру, что сделало модель востребованной в организациях и позволило ей стать одной из первых, допущенных к работе в закрытых средах.

Интеграция с военными системами началась с партнёрства 2024 года с компанией Palantir, после чего последовали соглашения, включая крупный контракт с министерством обороны. Однако эти сделки не всегда закрепляли постоянные правила использования или жёсткие защитные барьеры для моделей, что в итоге привело к разногласиям о степени контроля и допустимых сценариях применения.

Политический контекст также усилил конфликт: кадры с опытом работы в администрациях, публичные политические позиции руководства и риторика отдельных должностных лиц придали столкновению дополнительную идеологическую окраску. Кроме того, отношения между ключевыми фигурами в оборонном ведомстве и руководством компании оказались натянутыми.

Срочность переговоров усугубляют сообщения о практическом использовании моделей в боевых операциях. По публичным сообщениям, технологии, связанные с интеграцией Claude в аналитические системы, применялись для планирования некоторых операций и анализа последствий ударов в зарубежных конфликтах.

Эксперты отмечают типичную для двойного назначения технологию проблему: продукт, созданный для широкого применения, после адаптации для закрытых военных систем может использоваться иными способами, непредусмотренными разработчиками. Компаниям зачастую трудно предотвратить подобную репурпозу техники.

Одна из иллюстраций этой дилеммы — близость базовой технологии для распознавания объектов в изображениях и для задач, связанных с обнаружением людей в зонах конфликта. Небольшая перенастройка модели может коренным образом изменить её применение и последствия такого использования.

Дополнительную проблему составляет отсутствие прозрачности: компании не всегда видят, как их технологии используются в закрытых системах, а военные не всегда имеют полное понимание внутренней работы проприетарных моделей — явление, которое некоторые юристы называют «двойной чёрной коробкой». Контракты и формулировки в них могут трактоваться по-разному, что создаёт правовую и практическую неопределённость.

В результате встает фундаментальный вопрос о том, кто должен определять рамки использования ИИ, а законодательство Конгресса по автономным боевым системам пока неполно. В сложившейся ситуации частная компания оказалась одним из немногих акторов, который фактически ограничивает возможные шаги военных по масштабному использованию технологий.


Понравилось? Поделитесь с друзьями!

97
20 поделились, 97 баллы

Какова ваша реакция?

Чего? Чего?
10
Чего?
Плачу Плачу
7
Плачу
Прикол Прикол
6
Прикол
Ого Ого
5
Ого
Злой Злой
4
Злой
Ржака Ржака
3
Ржака
Ух, ты! Ух, ты!
2
Ух, ты!
Ужас Ужас
10
Ужас
Супер Супер
7
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend