
OpenAI планирует запустить ИИ в роли «исследовательских стажёров» в 2026 году, а к марту 2028 года, по словам Сэма Олтмана, цель — создать полностью автономного ИИ‑исследователя. Это отражает сдвиг к более «персональному AGI», где ИИ не просто отвечает на вопросы, но и помогает формировать ход мыслей пользователя.
Олтман озвучил эти планы в недавнем прямом эфире в ответ на вопрос о сроках появления AGI, отметив, что термин «AGI» сильно перегружен и что речь идёт о постепенном процессе. Он подчеркнул необходимость чёткого определения того, что именно подразумевается под «автоматизированным исследователем».
Под «исследовательским стажёром» предполагается расширенная версия ChatGPT, способная читать научные статьи, сопоставлять их с другими исследованиями и выделять новые или проблемные моменты. Такая система могла бы также помогать разъяснять технические концепции и предлагать дальнейшие шаги для работы над проблемой.
Сегодняшние чат‑боты частично выполняют подобные задачи, но обычно им нужна структура и указания от человека. Олтман описывает версию ИИ, которая начнёт самостоятельно принимать полезные решения в процессе работы.
Ключевая проблема — надёжность: необходимо минимизировать или полностью устранить «галлюцинации» ИИ, чтобы можно было доверять его выводам без постоянной проверки. Если данные приходится постоянно перепроверять, эффективность такого «стажёра» существенно снижается.
Цель на 2028 год более амбициозна: система, которая может действовать как исследователь — генерировать идеи, проектировать и проводить тесты, а затем представлять результаты человеку. В этой роли ИИ ближе к коллеге, чем к традиционному чат‑боту.
Такое развитие вызывает беспокойство, поскольку автономный исследователь способен серьёзно повлиять на рынок труда и на профиль многих профессий. В то же время переход логичен с технической точки зрения, так как ИИ эффективен в анализе больших объёмов информации и в проведении небольших экспериментов.
Переход от текущих чат‑ботов к полноценным агентам‑исследователям остаётся сложной задачей из‑за вопросов безопасности, точности и управления подобными системами. Хотя OpenAI ранее достигала амбициозных рубежей, остаются серьёзные технические и этические препятствия.
Качество работы ИИ важнее соблюдения календарных сроков: система, которая уверенно даёт неверные ответы, опаснее и менее полезна. Для доверия необходимы прозрачность рассуждений, возможность ссылаться на источники и умение признавать неопределённость.
Если прогнозы Олтмана оправдаются, точная дата появления AGI перестанет быть первостепенной задачей; важнее то, что разработчики уже стремятся превратить ИИ из инструмента, реагирующего на запросы, в партнёра, который работает вместе с человеком. Это изменение может существенно трансформировать способы организации исследовательской и прикладной работы.


Комментариев