Anthropic опровергает использование Claude Вооружёнными силами США

Anthropic опровергает использование Claude Вооружёнными силами США


112
22 поделились, 112 баллы

Компания Anthropic заявила, что не вела переговоров с министерством обороны США о применении своей системы ИИ Claude для конкретных операций. В компании опровергли сообщения о таких обсуждениях.

Пентагон рассматривает возможность прекращения сотрудничества с Anthropic из‑за ограничений, которые компания налагает на использование своих моделей. Ранее американские военные обратились к четырём ведущим лабораториям ИИ с требованием разрешить применение их инструментов для всех законных целей, включая разработку вооружений, сбор разведданных и боевые операции.

Anthropic не согласилась на эти условия, что после месяцев трудных переговоров вызвало рост недовольства в военном ведомстве. Представители администрации отмечают, что подобные ограничения осложняют оперативное взаимодействие.

Компания настаивает, что два направления должны оставаться под запретом: массовая слежка за гражданами США и полностью автономные системы вооружений. При этом остаётся значительная неопределённость в определении границ этих категорий, что затрудняет согласование отдельных сценариев применения.

Напряжённость усилилась после публикаций о том, что модель Claude использовалась в операции по захвату бывшего президента Венесуэлы Николаса Мадуро. По сообщениям, применение модели происходило в рамках сотрудничества Anthropic с аналитической компанией Palantir, платформы которой широко используются в министерстве обороны США и федеральных правоохранительных органах.

В начале января силы США, как утверждается, задержали Николаса Мадуро и его супругу в ходе ударов по нескольким объектам в Каракасе; далее Мадуро доставили в Нью‑Йорк для предъявления федеральных обвинений в организации поставок наркотиков. Эти сведения привлекли внимание к практическому использованию ИИ в военных операциях.

Политика Anthropic явно запрещает использование Claude для содействия насилию, разработки оружия или проведения слежки. Сообщается, что модель участвовала в рейде с авиаударами, что снова поставило вопрос о достаточности существующих механизмов контроля.

Разногласия по поводу желаемого Пентагоном использования Claude способствовали росту трений между компанией и оборонным ведомством, и рассматривается возможность отмены контракта на сумму до 200 миллионов долларов. Ранее Anthropic, как утверждается, стала первой компанией, чья модель применялась в засекреченных операциях министерства обороны, хотя неясно, использовались ли другие системы ИИ в венесуэльской миссии для открытых задач.

Claude — продвинутый чат‑бот и крупная языковая модель, разработанная американской компанией Anthropic. Система рассчитана на генерацию текста, рассуждения, программирование и анализ данных; она умеет суммировать документы, отвечать на сложные вопросы, готовить отчёты и обрабатывать большие объёмы текстовой информации.


Понравилось? Поделитесь с друзьями!

112
22 поделились, 112 баллы

Какова ваша реакция?

Чего? Чего?
1
Чего?
Плачу Плачу
8
Плачу
Прикол Прикол
7
Прикол
Ого Ого
6
Ого
Злой Злой
5
Злой
Ржака Ржака
4
Ржака
Ух, ты! Ух, ты!
3
Ух, ты!
Ужас Ужас
1
Ужас
Супер Супер
8
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend