OpenAI: стажёры ИИ к 2026, исследователи АГИ к 2028

OpenAI: стажёры ИИ к 2026, исследователи АГИ к 2028


79
18 поделились, 79 баллы

OpenAI планирует запустить ИИ в роли «исследовательских стажёров» в 2026 году, а к марту 2028 года, по словам Сэма Олтмана, цель — создать полностью автономного ИИ‑исследователя. Это отражает сдвиг к более «персональному AGI», где ИИ не просто отвечает на вопросы, но и помогает формировать ход мыслей пользователя.

Олтман озвучил эти планы в недавнем прямом эфире в ответ на вопрос о сроках появления AGI, отметив, что термин «AGI» сильно перегружен и что речь идёт о постепенном процессе. Он подчеркнул необходимость чёткого определения того, что именно подразумевается под «автоматизированным исследователем».

Под «исследовательским стажёром» предполагается расширенная версия ChatGPT, способная читать научные статьи, сопоставлять их с другими исследованиями и выделять новые или проблемные моменты. Такая система могла бы также помогать разъяснять технические концепции и предлагать дальнейшие шаги для работы над проблемой.

Сегодняшние чат‑боты частично выполняют подобные задачи, но обычно им нужна структура и указания от человека. Олтман описывает версию ИИ, которая начнёт самостоятельно принимать полезные решения в процессе работы.

Ключевая проблема — надёжность: необходимо минимизировать или полностью устранить «галлюцинации» ИИ, чтобы можно было доверять его выводам без постоянной проверки. Если данные приходится постоянно перепроверять, эффективность такого «стажёра» существенно снижается.

Цель на 2028 год более амбициозна: система, которая может действовать как исследователь — генерировать идеи, проектировать и проводить тесты, а затем представлять результаты человеку. В этой роли ИИ ближе к коллеге, чем к традиционному чат‑боту.

Такое развитие вызывает беспокойство, поскольку автономный исследователь способен серьёзно повлиять на рынок труда и на профиль многих профессий. В то же время переход логичен с технической точки зрения, так как ИИ эффективен в анализе больших объёмов информации и в проведении небольших экспериментов.

Переход от текущих чат‑ботов к полноценным агентам‑исследователям остаётся сложной задачей из‑за вопросов безопасности, точности и управления подобными системами. Хотя OpenAI ранее достигала амбициозных рубежей, остаются серьёзные технические и этические препятствия.

Качество работы ИИ важнее соблюдения календарных сроков: система, которая уверенно даёт неверные ответы, опаснее и менее полезна. Для доверия необходимы прозрачность рассуждений, возможность ссылаться на источники и умение признавать неопределённость.

Если прогнозы Олтмана оправдаются, точная дата появления AGI перестанет быть первостепенной задачей; важнее то, что разработчики уже стремятся превратить ИИ из инструмента, реагирующего на запросы, в партнёра, который работает вместе с человеком. Это изменение может существенно трансформировать способы организации исследовательской и прикладной работы.


Понравилось? Поделитесь с друзьями!

79
18 поделились, 79 баллы

Какова ваша реакция?

Чего? Чего?
2
Чего?
Плачу Плачу
9
Плачу
Прикол Прикол
8
Прикол
Ого Ого
7
Ого
Злой Злой
6
Злой
Ржака Ржака
5
Ржака
Ух, ты! Ух, ты!
4
Ух, ты!
Ужас Ужас
2
Ужас
Супер Супер
9
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend