
Amazon Web Services (AWS) представила сервис AI Factories, который превращает корпоративные дата‑центры в площадки для интенсивных вычислений искусственного интеллекта.
Вместо передачи конфиденциальных данных в публичное облако компании теперь могут использовать современное ИИ‑оборудование и программное обеспечение непосредственно на своей площадке.
Клиенты предоставляют пространство, питание и подключение, а AWS берёт на себя развёртывание и интеграцию инфраструктуры.
Сервис объединяет процессоры Trainium AWS с графическими ускорителями NVIDIA и включает сетевые решения, системы хранения, базы данных и инструменты для ИИ, такие как Amazon Bedrock и SageMaker.
AWS утверждает, что AI Factories позволяют быстрее запускать ИИ‑проекты по сравнению с созданием аналогичной инфраструктуры самостоятельно, сохраняя при этом контроль над чувствительными данными.
Предложение нацелено на крупные предприятия и государственные организации, которым необходимо соблюдать строгие требования к регулированию и суверенитету данных.
Иэн Бак, вице‑президент NVIDIA по гиперскейлу и высокопроизводительным вычислениям, отметил, что масштабный ИИ требует комплексного подхода — от продвинутых GPU и сетей до ПО и сервисов, оптимизирующих каждый уровень дата‑центра.
NVIDIA и AWS поставляют этот комплекс непосредственно в окружение заказчиков, чтобы обеспечить необходимую производительность и интеграцию.
Оставление данных внутри организации остаётся ключевым драйвером для локальных ИИ‑развёртываний.
Компании и ведомства в регулируемых отраслях, таких как финансы, здравоохранение и оборона, часто обязаны держать чувствительные данные на собственной инфраструктуре.
AI Factories работают в изолированных средах и обеспечивают низкую задержку доступа к вычислениям и хранилищу без вывода данных за пределы площадки.
AWS указывает, что инфраструктура рассчитана на рабочие нагрузки разных уровней секретности — от общего до строго секретного, что важно для организаций с многоуровневой классификацией данных.
AWS сотрудничает с саудовской компанией HUMAIN для создания локальной AI‑зоны с потенциально до 150 000 ИИ‑чипов в специально построенном дата‑центре.
По словам Тарека Амина, генерального директора HUMAIN, этот проект является началом многогига‑ваттного направления и изначально разрабатывался для обслуживания как местного, так и глобального спроса на вычислительные мощности для ИИ.
Технологически решение сочетает GPU NVIDIA (Grace Blackwell и Vera Rubin) с процессорами Trainium и высокоскоростными межсоединениями, такими как Elastic Fabric Adapter, а также виртуализацией Nitro.
AWS позиционирует AI Factory как частную среду, аналогичную выделенному региону AWS, с интегрированными сервисами и поддержкой крупных рабочих нагрузок.
Управляя инфраструктурой, AWS стремится снять с организаций бремя закупок, установки оборудования, настройки сетей и программной интеграции, которые при самостоятельной реализации могут занимать месяцы или годы.
AI Factories отражают более широкий переход к гибридным и локальным решениям для ИИ.
Хотя публичное облако доминировало в корпоративной ИТ в последние годы, требования современных моделей и регуляторные ограничения заставляют компании пересматривать полностью облачные архитектуры.
Майкрософт реализует похожие подходы, включая развёртывания для выполнения задач OpenAI и управляемое локальное решение Azure Local для организаций, которые требуют строгого суверенитета данных.
NVIDIA остаётся ключевым поставщиком ускорителей и программного стека для таких развёртываний, а сочетание этого оборудования с облачным управлением и сервисами даёт производительность, труднодоступную при самостоятельной сборке.
AI Factories могут предоставить ИТ‑руководителям более быстрый доступ к вычислительным ресурсам, но требуют дополнительного планирования.
Организациям необходимо учитывать расходы, кадровое обеспечение и интеграцию с существующими системами, а также решать, какие нагрузки держать локально, а какие — в облаке, с учётом соответствия, задержек и производительности.
Несмотря на управление инфраструктурой со стороны AWS, организациям по‑прежнему нужны компетенции для развёртывания моделей, мониторинга и обеспечения безопасности, поэтому повышение квалификации сотрудников или привлечение специалистов будет ключевым.
Партнёрство AWS и NVIDIA иллюстрирует стратегическое смещение в корпоративных вычислениях: ИИ влияет на инфраструктуру, соответствие требованиям и общую корпоративную стратегию.
Организации, способные эффективно развёртывать ИИ на месте, сохраняя при этом гибкость и контроль, могут получить конкурентное преимущество.
Проект с HUMAIN демонстрирует потенциал региональных масштабных развёртываний, и ряд стран, вероятно, последует подобным инициативам в стремлении сочетать внедрение ИИ с безопасностью данных и регуляторными требованиями.
Предлагая полно‑стековое локальное решение, AWS и NVIDIA указывают на вероятность того, что будущее корпоративного ИИ будет гибридным — сочетая облачные компетенции, управляемые сервисы и современное оборудование с преимуществами контроля и соответствия локальных развёртываний.
Это создаёт новые возможности для компаний, стремящихся использовать ИИ, не теряя контроля над чувствительной информацией.


Комментариев