Кто заменит Nvidia на рынке ИИ‑чипов Китая?

Кто заменит Nvidia на рынке ИИ‑чипов Китая?


75
18 поделились, 75 баллы

В течение более десяти лет графические процессоры Nvidia были основой экосистемы искусственного интеллекта в Китае. Они обеспечивали вычислительную мощность для поисковых систем, видеоприложений, смартфонов, электромобилей и нынешней волны генеративных моделей.

Несмотря на ужесточение экспортных правил со стороны США, китайские компании приобретали адаптированные «для Китая» версии чипов Nvidia — такие как H800, A800 и H20. К 2025 году в Пекине усилилось недоверие: государственные СМИ поставили под сомнение безопасность H20 и заговорили о возможных «черных ходах», регуляторы вызывали руководителей на объяснения, а ряд фирм, по сообщениям, получили указания отменить новые заказы у Nvidia.

Сигнал был ясен: Пекин больше не готов полностью полагаться на поставщика из США. Если Nvidia не поставляет здесь свои лучшие решения, вакантную нишу должны заполнить отечественные разработки.

Это непросто: соперничество с Nvidia требует не только производительных процессоров, но и большого объёма быстрой памяти, высоких скоростей межсоединений, зрелых программных стеков и крупномасштабного производства. Тем не менее на передний план вышли четыре основных претендента: Huawei, Alibaba, Baidu и Cambricon.

Huawei рассматривается как наиболее естественная замена Nvidia. Линейка Ascend развивалась в условиях американских санкций, и в сентябре 2025 года компания обнародовала многолетнюю дорожную карту развития своих AI-чипов.

В ней указаны ключевые этапы: Ascend 950 ожидается в 2026 году с целевыми показателями около 1 PFLOPS при FP8, 128–144 ГБ памяти и межчиповой пропускной способностью до 2,0 ТБ/с. Ascend 960 запланирован на 2027 год с примерно двукратным приростом по сравнению с 950, а Ascend 970 намечен более поздними поколениями для дальнейших скачков производительности.

Нынешнее предложение Huawei — Ascend 910B — было представлено после отключения компании от глобальных поставщиков. По уровню производительности его сравнивают с Nvidia A100 2020 года; в ряде тренировочных задач Huawei указывала на преимущество 910B примерно в 20% в 2024 году. При этом чип использует более старую память HBM2E, из‑за чего он уступает H20 примерно по трети ёмкости памяти и примерно на 40% по межчиповой полосе пропускания.

Новинка 910C представляет собой связку двух 910B в дизайне с двумя чиплетами. На демонстрации Huawei показывала кластер Atlas 900 A3 SuperPoD из 384 плат, достигающий порядка 300 PFLOPS, что указывает на примерно 800 TFLOPS FP16 на каждый 910C. Это ниже показателей H100 (~2000 TFLOPS FP16), но при развёртывании в кластерах такой уровень позволяет тренировать крупные модели.

Huawei планирует вывести в 2026 году Atlas 950 SuperPoD, который объединит 8 192 Ascend‑чипа для достижения порядка 8 EFLOPS при FP8, поддерживая около 1 152 ТБ памяти и примерно 16,3 ПБ/с межсоединений. Дальнейшая конфигурация Atlas 960 рассчитана на масштаб до 15 488 чипов.

Кроме аппаратной части, Huawei развивает программную экосистему: фреймворк MindSpore и низкоуровневое ПО CANN позиционируются как отечественные альтернативы PyTorch и CUDA. В качестве клиентов названы государственные и санкционные фирмы, а также отдельные тестовые закупки со стороны крупных платформ.

При этом телеком‑операторы, ответственные за строительство дата‑центров, остаются осторожны в отношении сильной зависимости от одного вендора и предпочитают смешанные поставки. Крупные интернет‑платформы также опасаются, что тесная интеграция может дать поставщику влияние на их интеллектуальную собственность.

Тем не менее Huawei в настоящее время выглядит более подготовленной к конкуренции с Nvidia, чем когда‑либо ранее, хотя и без гарантированных преимуществ в каждой области.

Alibaba через подразделение T‑Head изначально развивала RISC‑V‑процессоры и серверные решения, но постепенно превратилась в одну из самых амбициозных попыток конкурировать с Nvidia на местном рынке.

Её ранний продукт Hanguang 800, представленный в 2019 году как эффективный чип для инференса, способен обрабатывать десятки тысяч изображений в секунду. Выполненный по 12‑нм техпроцессу с примерно 17 миллиардами транзисторов, он обеспечивает до ~820 TOPS и порядка 512 ГБ/с пропускной способности памяти.

Более свежая архитектура PPU с 96 ГБ высокопропускной памяти и поддержкой PCIe 5.0 позиционируется как соперник H20. По данным отдельных отчётов, в одном промышленном дата‑центре эксплуатируется свыше 16 000 PPU из примерно 22 000 чипов, а Alibaba использует собственные AI‑чипы и для обучения крупных языковых моделей.

Alibaba Cloud также обновила серверную платформу «Panjiu» с 128 AI‑чипами на стойку, модульной конструкцией и жидкостным охлаждением. Для Alibaba выпуск собственной микросхемы — это не только технологический проект, но и гарантия устойчивости облачной инфраструктуры.

Baidu начал эксперименты с ускорением нейросетей ещё в 2011 году, сначала с FPGA, а затем развил собственную линейку Kunlun. Первый Kunlun‑чип появился в 2018 году на 14‑нм техпроцессе и обеспечивал порядка 260 TOPS с пиковым пропуском памяти около 512 ГБ/с.

Второе поколение Kunlun, произведённое по 7‑нм техпроцессу, подняло характеристики до примерно 256 TOPS в INT8 и 128 TFLOPS в FP16 при энергопотреблении около 120 ватт, ориентируясь больше на инференс‑задачи. Позже подразделение Kunlun было выведено в самостоятельную компанию Kunlunxin с оценкой около 2 миллиардов долларов.

В 2025 году Baidu представила кластер из 30 000 чипов на базе третьего поколения P800. По оценкам исследователей, P800 даёт примерно 345 TFLOPS FP16, что ставит его в сопоставимую категорию с Huawei 910B и Nvidia A100. По заявлениям компании, такой кластер способен обучать большие мультимодальные модели.

Baidu также получила заказы на сумму свыше 1 миллиарда юаней (примерно 139 миллионов долларов) для проектов China Mobile, что поддержало доверие инвесторов и положительно сказалось на котировках компании. Вместе с тем сообщалось о приостановке партнёрских поставок по некоторым 4‑нм проектам у найденри‑партнёра, что может затормозить масштабирование.

Cambricon вышла из Китайской академии наук в 2016 году, хотя её корни восходят к научным программам 2008 года по разработке нейроподобных процессоров. Компания рано ориентировалась на NPU для мобильных и серверных применений и вначале сотрудничала с Huawei.

Периодические трудности привели к снижению выручки, но с конца 2024 года Cambricon вернулась к прибыльности благодаря серии чипов MLU. Продуктовая линейка постепенно улучшалась, делая ставку на гибридные рабочие нагрузки и масштабируемые межсоединения.

MLU 290 на 7‑нм с 46 миллиардами транзисторов был рассчитан на комбинированные задачи обучения и инференса с возможностью масштабирования на кластеры свыше 1 000 чипов. MLU 370 достигал порядка 96 TFLOPS в FP16. Прорывным стал MLU 590 в 2023 году, которому приписывают около 345 TFLOPS FP16 и поддержку форматов с меньшей разрядностью, таких как FP8, что повысило эффективность и помогло восстановить финансовую устойчивость компании.

Сейчас в разработке находится MLU 690, с которым рынок связывает ожидания приближения к уровню H100 по ряду показателей. Главные препятствия для Cambricon остаются те же: масштаб производства и осторожность покупателей после прошлых неудач.

Суть конфликта вокруг роли Nvidia в Китае выходит за рамки чисто технических характеристик. Для Вашингтона экспортные ограничения рассматриваются как инструмент национальной безопасности и замедления передвижения передовых технологий, тогда как для Пекина отказ от внешней зависимости — способ уменьшить стратегическую уязвимость.

Крупные отечественные игроки и ряд более мелких компаний пока не предлагают полностью эквивалентных замен. По большинству параметров их серийные решения сопоставимы с Nvidia A100 пятилетней давности, и только постепенно они стремятся догнать H100, представленную несколько лет назад.

Кроме того, каждый поставщик продвигает собственные программные стеки и инструменты, что требует от разработчиков адаптации моделей, ранее оптимизированных под CUDA. Это влияет на сроки и затраты как при обучении, так и при инференсе.

Некоторые проекты уже испытывают задержки в переходе на отечественные платформы: разработки крупных стартапов отложены в связи с попытками перенести часть обучения на чипы Huawei и других местных вендоров. В целом остаётся открытым вопрос, когда и в какой степени китайские решения смогут сочетать производительность, программную поддержку и доверие конечных пользователей на уровне, сопоставимом с Nvidia.

Ясно одно: Китай больше не намерен занимать второстепенную роль в глобальной гонке за технологии искусственного интеллекта. Масштаб и характер усилий, вложенных в собственные чипы и инфраструктуру, будут во многом определять расстановку сил в отрасли в ближайшие годы.


Понравилось? Поделитесь с друзьями!

75
18 поделились, 75 баллы

Какова ваша реакция?

Чего? Чего?
9
Чего?
Плачу Плачу
6
Плачу
Прикол Прикол
5
Прикол
Ого Ого
4
Ого
Злой Злой
3
Злой
Ржака Ржака
2
Ржака
Ух, ты! Ух, ты!
1
Ух, ты!
Ужас Ужас
9
Ужас
Супер Супер
6
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend