
AWS объявила о партнёрстве с Nvidia для разработки так называемых «AI Factory» — мощных центров, объединяющих передовое оборудование для поддержки следующего поколения систем искусственного интеллекта. Анонс состоялся на конференции AWS re:Invent 2025.
В рамках сотрудничества компании планируют интегрировать аппаратные решения Nvidia с последними чипами Trainium от AWS, а также сетевыми, хранилищными и базами данных AWS.
По замыслу такие центры помогут предприятиям и государственным учреждениям масштабировать вычислительные нагрузки и ускорить разработку комплексных AI‑решений.
AWS отмечает, что предложенный подход должен сократить затраты и время на создание инфраструктуры, делая процесс масштабирования проектов ИИ более простым и эффективным.
Технология AI Factory предполагает развёртывание выделенной инфраструктуры AWS непосредственно в дата‑центрах клиентов, что обеспечивает высокий уровень кастомизации, безопасности и контроля — по сути приватный регион AWS для заказчика.
Партнёрство также призвано ускорить развёртывание и эксплуатацию крупных языковых моделей: заказчики получат доступ к полному стеку программного обеспечения Nvidia для работы с LLM и другим ИИ‑ПО.
В комплект решений входят архитектуры NVIDIA Grace Blackwell и планируемая NVIDIA Vera Rubin, а также ожидаемая поддержка высокоскоростной связки NVLink Fusion, которая появится у следующего поколения чипов Trainium4.
Представители компаний подчеркнули, что масштабный ИИ требует комплексного подхода — от графических процессоров и сетей до оптимизирующего программного обеспечения и сервисов. Поставляя этот стек непосредственно в окружение клиентов, AWS и Nvidia намерены сокращать сроки развёртывания и позволять организациям сосредоточиться на разработке, а не на интеграции инфраструктуры.


Комментариев