
Google запустила амбициозную инициативу под названием «TorchTPU», задача которой — обеспечить бесшовную совместимость её ИИ-ускорителей с фреймворком PyTorch. Компания стремится устранить технические барьеры, которые удерживали разработчиков в экосистеме Nvidia.
Ускорители Tensor Processing Unit (TPU) стали важным источником выручки для Google Cloud, но их распространение тормозилось тем, что разработчикам приходилось переписывать код под предпочитаемый Google фреймворк JAX вместо отраслевого стандарта PyTorch. В свою очередь Nvidia получила преимущество благодаря многолетним оптимизациям через платформу CUDA, что обеспечило плавную работу её GPU с PyTorch.
По сведениям источников, Google выделила значительные ресурсы на проект и рассматривает частичное открытие программного обеспечения, чтобы ускорить принятие TPU корпоративными клиентами. Цель — снизить барьеры для перехода и упростить интеграцию в существующие AI-инфраструктуры.
В инициативу активно вовлечена Meta, компания, которая создала PyTorch в 2016 году и сохраняет заметное влияние на его развитие. Для Meta участие в проекте имеет стратегический смысл: диверсификация поставщиков аппаратного обеспечения снизит зависимость от Nvidia и укрепит переговорные позиции при закупках чипов.
Google также расширяет коммерческую доступность своих чипов: компания начала продавать TPU напрямую корпоративным клиентам, включая Anthropic, и устанавливать оборудование в дата-центрах заказчиков, а не ограничивать доступ только своим облачным сервисам. Эти шаги позволяют клиентам использовать TPU вне облака Google.
Организационные изменения указывают на приоритетность направления: Амин Вахдат стал главой подразделения AI-инфраструктуры и теперь напрямую подчиняется генеральному директору Сундару Пичаи. Такое перестроение отражает возросшее стратегическое значение бизнеса с TPU для Google.
Представитель Google Cloud отметил заметный и ускоряющийся спрос на инфраструктуру как для TPU, так и для GPU, подчеркнув, что компания фокусируется на предоставлении разработчикам гибкости и масштабируемости независимо от выбранного аппаратного обеспечения. Эта позиция направлена на поддержку клиентов с разными технологическими предпочтениями.
Несовместимость программного стека долгое время оставалась главным препятствием в противостоянии с Nvidia. Инженеры Google оптимизировали чипы под JAX и инструмент XLA, тогда как большинство индустрии стандартизировалось на PyTorch и CUDA, что делало переход дорогостоящим и сопряжённым с неопределённостью в производительности.
Если «TorchTPU» позволит полноценно запускать PyTorch на TPU, основное техническое препятствие для перехода исчезнет. Это даст компаниям возможность менять поставщиков аппаратного обеспечения без полной переработки инфраструктуры и создаст реальную конкуренцию для Nvidia, которая в настоящее время удерживает более 80% рынка.
Сотрудничество Google и Meta демонстрирует, что даже прямые конкуренты готовы объединяться при наличии общей задачи — найти альтернативы дорогостоящим и ограниченным в поставках GPU по мере роста вычислительных нагрузок в сфере ИИ. Такие альянсы могут повлиять на распределение ролей и поставщиков в отрасли.


Комментариев