
К концу 2025 года ландшафт искусственного интеллекта достиг критической точки изменения. Nvidia по-прежнему доминирует в аппаратной части, но в центрах обработки данных крупнейших технологических компаний происходит заметный сдвиг. Advanced Micro Devices перешла от роли второй силы к серьёзному конкуренту, делая ставку на большие объёмы памяти и интеграцию с открытым программным обеспечением.
Значение этого сдвига трудно переоценить. Аппаратные ограничения теперь решаются не только за счёт чистой вычислительной мощности, но и через архитектурную эффективность и снижение общей стоимости владения. Агрессивный ежегодный план выпуска продуктов AMD изменил стратегию закупок в крупных AI-лабораториях.
В центре внимания — серия Instinct MI350 и флагман MI355X, созданные на архитектуре CDNA 4 с техпроцессом 3 нм. MI355X предлагает 288 ГБ памяти HBM3E и пропускную способность около 8,0 ТБ/с. По сравнению с типичными конфигурациями конкурента, где присутствует порядка 180–192 ГБ HBM3E, это даёт существенное преимущество по объёму памяти.
Преимущество по памяти позволяет выполнять вывод очень больших моделей, таких как Llama 4, на значительно меньшем числе узлов, что упрощает развёртывание и снижает энергопотребление. Серия MI350 также добилась сопоставимой с конкурентом вычислительной производительности. MI355X демонстрирует около 10,1 PFLOPS в формате FP8, а гибридный метод упаковки CoWoS от TSMC и модульная (chiplet) архитектура обеспечивают более высокие отбраковочные выходы и гибкость масштабирования.
Более гибкая конструкция и масштабируемость стали одним из факторов, позволяющих AMD удерживать цены на уровне примерно на 25–30% ниже конкурента. Сообщество исследователей реагирует осторожным оптимизмом: ранние бенчмарки у крупных лабораторий показывают простоту интеграции новых ускорителей в существующие рабочие процессы. Важным фактором стала зрелость открытого программного стека ROCm 7.0, что уменьшает преимущество проприетарных экосистем.
Крупные облачные провайдеры и гипермасштабные компании всё активнее включают Instinct в свои квалификационные списки, чтобы избежать зависимости от одного поставщика. Для таких корпораций ключевыми становятся ценовые рычаги и устойчивость цепочек поставок. Наличие альтернативы позволяет снизить риск срыва планов из‑за проблем у единственного производителя.
Рыночная позиция AMD смещается от «бюджетного варианта» к роли основного решения для вывода моделей. По мере перехода отрасли от этапа обучения крупномасштабных фундаментальных моделей к стадии их развёртывания, спрос на ускорители с большим объёмом памяти резко вырос. Это делает решения AMD предпочтительными для задач с длинным контекстом и многопользовательскими или многозадачными рабочими процессами, где пропускная способность памяти является узким местом.
Это же изменение открывает возможности для стартапов: расширение доступа к оборудованию AMD на вторичном рынке и у специализированных облачных провайдеров снижает порог входа для обучения нишевых моделей. По прогнозам, доля AMD на рынке GPU для дата‑центров может вырасти до порядка 20% к 2027 году. Усиление конкуренции, вероятно, заставит конкурента ускорить собственные дорожные карты, что в итоге принесёт выгоду всей экосистеме через более быструю инновацию и снижение цен.
Широкий смысл успеха AMD связан с противостоянием открытых и закрытых экосистем. CUDA долгое время выполняла роль доминирующей, но проприетарной платформы. AMD делает ставку на инициативы по открытым стандартам и программную независимость, что должно обеспечить переносимость кода между различными типами аппаратуры.
Исторически это напоминает переходы в отрасли, например распространение Linux на серверах или доминирование архитектуры x86 над проприетарными мейнфреймами. При этом остаётся фактор масштабов исследований и разработок у конкурента: ожидаемая архитектура Rubin с продвижением в 2026 году обещает поддержку HBM4 и интегрированные процессорные блоки, что может нивелировать часть преимуществ AMD.
Тем не менее тенденция к диверсификации аппаратуры выглядит необратимой. Будущее становится «гетерогенным», где разные типы чипов используются на разных этапах жизненного цикла моделей. В такой реальности AMD не обязательно должна полностью устранить конкурента, достаточно занять роль стандарта для высокопамятных, открыто ориентированных решений.
На горизонте ближайших двух лет ожидается переход на HBM4 и выход серии Instinct MI400, запланированный ориентировочно на начало 2026 года. По ранним оценкам, MI400 может получить более 400 ГБ памяти HBM4 и почти 20 ТБ/с пропускной способности, что позволит опережать конкурента в задачах, критичных к объёму и скорости памяти.
В то же время более глубокая интеграция аппаратуры в крайние устройства усиливается: приобретение Xilinx и наличие процессоров Ryzen AI дают AMD преимущество в создании сквозных решений от дата‑центра до устройств. Ожидается появление рабочих процессов, где модели тренируются на кластерах Instinct, оптимизируются с помощью ROCm и развёртываются на миллионах устройств с Ryzen.
Ключевой задачей остаётся поддержание программной согласованности на широком наборе аппаратных платформ. Успех в этом обеспечит значительное конкурентное преимущество, но выполнить такую задачу технически сложно из‑за разнообразия целевых устройств и конфигураций.
Следующим крупным ограничением может стать энергопотребление: при достижении «стены мощности» победителем станет не столько самый быстрый чип, сколько тот, кто даст максимум производительности на ватт. Акцент AMD на эффективности chiplet‑архитектур и продвинутых системах жидкостного охлаждения для серий MI350 и MI400 указывает на готовность к этой фазе конкуренции.
Подводя итог, рост позиции AMD в секторе ИИ иллюстрирует силу последовательной реализации стратегии и стремление отрасли к конкуренции. В ближайшие месяцы можно ожидать дальнейших объявлений о партнёрствах с крупными лабораториями и появления публичных бенчмарков серии MI350, которые станут ключевым доказательством новой позиции AMD в экосистеме.


Комментариев