Anthropic продолжает спорную практику и при этом достигает успеха

Anthropic продолжает спорную практику и при этом достигает успеха


114
22 поделились, 114 баллы

Если «Конституция» Клода не способна направить развитие ИИ в правильное русло, встанет ли эта задача вообще под силу кому‑то ещё?

Общество в целом и команды в компаниях, создающих ИИ, одновременно предъявляют системам набор взаимно противоречивых требований.

Компании вроде Anthropic и OpenAI рассчитывают, что ИИ будут приносить значительную прибыль как коммерческие продукты. В то же время они стремятся избежать публичных скандалов, связанных с неприемлемыми высказываниями моделей.

Некоторые платформы выставляют дополнительные политические или репутационные требования к ответам своих моделей — примером называют систему Grok и стремление избежать заявлений, которые компания сочла бы «woke».

Фирмы не хотят, чтобы их виртуальные помощники становились занудными моралистами, отказывающимися помогать из боязни причинить вред. Одновременно они не желают, чтобы ассистенты отталкивали людей в уязвимом состоянии — например, убеждали подростков, склонных к суициду, не обращаться за помощью, или превращались в холодных бюрократов при обсуждении проблем психического здоровья.

Ожидается, что ИИ будут обаятельными и поддерживающими, но без того, чтобы становиться зависимыми подхалимами, вытесняющими живое общение. Кроме того, обществу важно, чтобы системы не лгали, хотя пользователи часто предпочитают ответы, которые приятны для чтения, а не исключительно резкую правду.

Эта путаница требований вызывает серьёзную обеспокоенность. Обучение системы на наборе противоречивых целей при сокрытии реальных приоритетов разработчиков рискует породить поведение, которое формально декларирует ценности, но фактически действует в интересах прибыли компании.

Ключевая задача — не поиск единственного «правильного» значения, а ясное изложение компромиссов и правил, где ИИ должен поступаться, а где стоять на своём при конфликте ценностей. Это включает сложные практические выборы: давать ли инструкцию по незаконному использованию наркотиков, как реагировать на сообщение о насилии в отношениях, если пользователь против критики партнёра, или отказывать ли в ответах, неудобных для интересов конкретной компании.

В этом контексте стоит отметить недавнюю публикацию Anthropic документа, который в интернете называли «душевным документом» Клода, а компания сама называет «Конституцией» — сводом принципов, объясняющим, в каком контексте должен функционировать Клод и каким сущностью его стремятся сделать. Этот документ адресован прежде всего самой модели и недавно стал общедоступен; ранее части его можно было получить, попросив Клода воспроизвести текст, а теперь доступна полная версия.


Понравилось? Поделитесь с друзьями!

114
22 поделились, 114 баллы

Какова ваша реакция?

Чего? Чего?
1
Чего?
Плачу Плачу
8
Плачу
Прикол Прикол
7
Прикол
Ого Ого
6
Ого
Злой Злой
5
Злой
Ржака Ржака
4
Ржака
Ух, ты! Ух, ты!
3
Ух, ты!
Ужас Ужас
1
Ужас
Супер Супер
8
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend