OpenAI начинает поиск нового руководителя по готовности

OpenAI начинает поиск нового руководителя по готовности


99
20 поделились, 99 баллы

OpenAI начала поиск нового руководителя по направлению подготовки. Эта должность сосредоточена на выявлении и управлении возникающими рисками, связанными с развитием продвинутого искусственного интеллекта.

Объявление появилось в критический момент: системы ИИ становятся более мощными, а беспокойство по поводу их возможного злоупотребления, влияния на психическое здоровье и угроз безопасности растёт. Эти вопросы привлекают внимание как внутри отрасли, так и за её пределами.

Генеральный директор Сэм Альтман прямо затронул эти опасения в недавнем сообщении в X, отметив, что модели ИИ «начинают создавать серьёзные проблемы». Это заявление подчёркивает масштаб задач, с которыми сталкиваются разработчики и регуляторы.

Проблемы охватывают различные направления: от кибербезопасности до вопросов психического здоровья. Они включают как непосредственные угрозы, так и потенциально более отдалённые риски.

Современные модели ИИ делают больше, чем просто генерируют текст: они анализируют системы, пишут код и могут выявлять уязвимости. Альтман указывал, что некоторые модели достигли такого уровня, что способны обнаруживать критические уязвимости в системах безопасности.

Это даёт возможности для усиления обороны и исправления уязвимостей, но те же способности могут быть использованы злоумышленниками при отсутствии соответствующих ограничений. Поэтому подготовка и превентивные меры стали приоритетом.

Альтман призвал квалифицированных специалистов подавать заявки на эту позицию. Он подчеркнул важность привлечения экспертов, способных координировать работу между техническими, политическими и руководящими командами.

Согласно описанию вакансии, руководитель по подготовке будет отвечать за реализацию рамочной программы подготовки компании. Эта рамка описывает, как OpenAI отслеживает и готовится к появлению передовых возможностей ИИ, которые могут привести к серьёзному ущербу.

Роль охватывает широкий спектр рисков — от непосредственных, например фишинговых атак, до более спекулятивных, включая биологические риски и системы, способные к самосовершенствованию. В сущности, задача заключается в прогнозировании угроз и планировании мер до их полного проявления.

Вакансия указывает годовую компенсацию в размере 555 000 долларов США плюс пакет акций. Такой уровень оплаты отражает масштаб ответственности и требуемую координацию между командами, а принимаемые решения могут повлиять на миллионы пользователей.

OpenAI впервые объявила о создании команды по подготовке в 2023 году. Тогда компания заявляла, что группа будет изучать потенциальные «катастрофические риски» в широком спектре сценариев.

Эти сценарии варьировались от ближних угроз, таких как мошенничество и фишинг, до более отдалённых рисков, включая возможные ядерные последствия. Менее чем через год последовали организационные изменения внутри компании.

Александер Мадры, который ранее возглавлял направление подготовки, был переведён на задачи, связанные с исследованиями способностей ИИ к рассуждению. С тех пор ряд руководителей, ориентированных на безопасность, либо покинули OpenAI, либо переместились в роли вне команды подготовки и безопасности.

Альтман также подчеркнул возможное влияние моделей ИИ на психическое здоровье. По мере того как генеративные чат‑боты становятся более разговорными и эмоционально отзывчивыми, растёт обеспокоенность их воздействием на пользователей.

В ряде недавних судебных исков утверждается, что взаимодействие с ChatGPT усиливало бредовые убеждения некоторых пользователей, способствовало социальной изоляции и в отдельных случаях могло способствовать трагическим исходам. Эти обвинения усилили общественную дискуссию о ролях и обязанностях разработчиков ИИ.

OpenAI сообщает, что продолжает работать над улучшением способности ChatGPT распознавать признаки эмоционального недомогания и направлять пользователей к реальной поддержке при необходимости. В то же время компания отмечала возможность ослабления собственных требований по безопасности в случае, если конкуренты выпустят высокорисковые модели без аналогичных защит.


Понравилось? Поделитесь с друзьями!

99
20 поделились, 99 баллы

Какова ваша реакция?

Чего? Чего?
9
Чего?
Плачу Плачу
6
Плачу
Прикол Прикол
5
Прикол
Ого Ого
4
Ого
Злой Злой
3
Злой
Ржака Ржака
2
Ржака
Ух, ты! Ух, ты!
1
Ух, ты!
Ужас Ужас
9
Ужас
Супер Супер
6
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend