Пентагон рассматривает разрыв связей с Anthropic из-за ограничений на военный ИИ

Пентагон рассматривает разрыв связей с Anthropic из-за ограничений на военный ИИ


141
24 поделились, 141 точка

Пентагон рассматривает возможность прекращения сотрудничества с компанией Anthropic из‑за её отказа допустить использование некоторых моделей искусственного интеллекта в определённых военных задачах.

Министерство обороны ведёт переговоры с несколькими крупными разработчиками ИИ о том, чтобы их инструменты могли применяться «для любых законных целей», включая чувствительные области — разработку оружия, сбор разведданных и боевые операции.

Системы искусственного интеллекта умеют обрабатывать большие объёмы данных и генерировать оперативные выводы в реальном времени, что рассматривается как критически важная возможность в военных операциях.

Компания Anthropic, создатель чатбота Claude, отказалась принимать широкое определение «законной цели» и сохраняет ограничения в двух областях: массовое наблюдение за гражданами США и разработка либо развёртывание полностью автономного оружия.

После нескольких месяцев безрезультатных переговоров представители оборонного ведомства склоняются к разрыву отношений с компанией, а не к ведению поимённых согласований или принятию заранее установленных запретов на отдельные применения.

Чиновники отмечают, что обе ограниченные области содержат значительные «серые зоны», в которых трудно однозначно определить, подпадает ли конкретный случай под запрет. Рассматриваются все варианты, включая сокращение сотрудничества или его полное прекращение.

Представитель Anthropic заявил, что компания остаётся приверженной ответственному использованию ИИ в интересах национальной безопасности США.

Напряжённость усилилась после сообщений об использовании Claude в операции, целью которой называли задержание президента Венесуэлы Николаса Мадуро. Доступ к программному обеспечению при этом осуществлялся через продукт, созданный в сотрудничестве с компанией Palantir, которая интегрирует Claude в свои платформы.

По словам представителей Пентагона, один из руководителей Anthropic связался с коллегой из Palantir, чтобы выяснить, использовался ли Claude в рейде, и высказал предположение, что подобное применение в будущем может не получить одобрения. В оборонном ведомстве восприняли этот обмен как сигнал о возможной ненадёжности программного обеспечения для оперативных миссий.

Чиновники подчёркивают, что партнёрство с любым поставщиком, которое может ставить под угрозу успех действий военнослужащих, требует пересмотра.

Хотя Claude ранее применяли для анализа спутниковых снимков и других разведывательных задач, источники указывали, что модель использовалась и в ходе активных операций в венесуэльской миссии, в результате которой, по сообщениям, погибли десятки сотрудников венесуэльских сил безопасности.

Anthropic опровергла сведения о том, что компания официально обращалась к Palantir или в Министерство обороны по поводу конкретной операции, и отметила, что Claude применяется в широком спектре разведывательных задач в правительственных учреждениях в соответствии с политикой использования.

Представитель компании добавил, что переговоры с Пентагоном касаются строгих правил относительно полностью автономного оружия и внутреннего массового наблюдения, и что эти вопросы не были связаны с венесуэльской операцией.

Чиновники администрации также признали, что замена Claude может оказаться сложной задачей, поскольку у конкурентов есть отставание в отдельных специализированных правительственных приложениях. Anthropic подписала с Пентагоном контракт прошлым летом примерно на 200 миллионов долларов, и Claude стала первой моделью ИИ, интегрированной в закрытые сети Министерства обороны.

Конкурирующие системы, включая ChatGPT, Gemini и Grok, согласились снять часть ограничений для использования Пентагоном и ведут переговоры о расширении доступа в классифицированные среды; как минимум одна компания уже приняла условия оборонного ведомства, другие проявили большую гибкость, чем Anthropic.

Anthropic позиционирует себя в индустрии как компания, делающая акцент на безопасности и конфиденциальности пользователей. Генеральный директор Дарио Амодеи неоднократно выражал обеспокоенность рисками нерегулируемой разработки ИИ, а внутри компании, по сообщениям, идёт дискуссия среди инженеров о сотрудничестве с военными.


Понравилось? Поделитесь с друзьями!

141
24 поделились, 141 точка

Какова ваша реакция?

Чего? Чего?
9
Чего?
Плачу Плачу
6
Плачу
Прикол Прикол
5
Прикол
Ого Ого
4
Ого
Злой Злой
3
Злой
Ржака Ржака
2
Ржака
Ух, ты! Ух, ты!
1
Ух, ты!
Ужас Ужас
9
Ужас
Супер Супер
6
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend