Весной 2025 года Nvidia сделала ход, который может изменить рынок облачных ИИ-вычислений. Компания приобрела китайский стартап Lepton AI и уже через два месяца представила его новую версию — DGX Cloud Lepton. Это не просто ребрендинг, а запуск глобальной платформы, превращающей тысячи распределенных GPU по всему миру в единую ИИ-инфраструктуру нового поколения. Основатели Lepton — Янцин Цзя (экс-вице-президент по технологиям в Alibaba) и Цзюньцзе Бай также присоединились к Nvidia, чтобы продолжить работу над проектом на новом уровне. В статье — как работает этот подход, зачем он Nvidia и что это меняет для разработчиков и индустрии в целом.
Как работает DGX Cloud Lepton?
DGX Cloud Lepton — единая точка входа в глобальную экосистему GPU, превращающая разрозненные облачные ресурсы в единую суперструктуру для искусственного интеллекта. Рынок уже масштабируется:.
По данным исследований, рынок облачных GPU, оцениваемый в $3,17 млрд в 2023 г., к 2032 г. достигнет почти $47 млрд при среднегодовом росте около 35 %. Отдельный сегмент — GPU as a Service, — уже в 2025 г. оценивается приблизительно в $5 млрд и, по прогнозам, вырастет до $32 млрд к 2034 г. при CAGR около 23 %.
Nvidia взяла вычислительные мощности от ведущих облачных провайдеров — AWS, CoreWeave, Lambda и других — и связала их в единый программный интерфейс, доступный через одну интегрированную платформу, где не важны ни география, ни провайдер, ни архитектура кластера. Вся эта инфраструктура работает на фирменном ИИ-стеке Nvidia, в который входят:
- NIM (NVIDIA Inference Microservices) — микросервисы для молниеносного вывода моделей в продакшн;
- NeMo — платформа для создания и адаптации LLM и мультимодальных моделей;
- Blueprints — готовые шаблоны и архитектуры для быстрой сборки ИИ-приложений;
- Cloud Functions — модульные ИИ-функции, готовые к запуску без лишнего кода.
С этой платформой разработчики получают предсказуемое поведение, гибкую масштабируемость и мгновенный доступ к GPU-производительности мирового класса — независимо от того, где и у кого размещены серверы. DGX Cloud Lepton делает для ИИ-инфраструктуры то, что облака сделали для хранения данных — снимает ограничения и открывает глобальный доступ.
Три ключевых рабочих процесса
Платформа предлагает гибкую архитектуру, которая охватывает весь жизненный цикл разработки и внедрения ИИ-моделей — от первой строчки кода до масштабируемого продакшна. Платформа поддерживает три основных рабочих режима, каждый из которых нацелен на конкретные этапы работы с ИИ.
Dev Pods — личная ИИ-лаборатория в облаке
Это интерактивные среды, в которых легко работать с такими инструментами, как Jupyter Notebooks, VS Code и SSH. Все уже настроено для запуска кода прямо на GPU. Такой формат удобно использовать для прототипирования, отладки и первых экспериментов с моделями — быстро, гибко и без лишних технических настроек.
Batch Jobs — тяжелые вычисления под контролем
Для масштабных, ресурсоемких задач, обучение моделей, генерация датасетов и массивная предобработка, предназначен режим Batch Jobs. Система автоматически распределяет нагрузку по множеству узлов, а разработчик получает мониторинг в реальном времени, логи и метрики — полную прозрачность и контроль.
Inference Endpoints — масштабируемое ИИ в действии
Когда модель готова, пора вывести ее в мир. Inference Endpoints позволяют развернуть любой тип модели — от open-source до кастомной — как масштабируемую высокодоступную конечную точку API. Поддерживаются как контейнеры с NVIDIA NIM, так и собственные образы, с возможностью автоматического масштабирования под нагрузку.
DGX Cloud Lepton превращает каждую стадию ИИ-проекта в управляемый, быстрый и предсказуемый процесс, позволяя разработчикам сосредоточиться на инновациях, а не на инфраструктуре.
Расширенные операционные функции
DGX Cloud Lepton не просто объединяет вычислительные ресурсы — платформа также включает в себя мощный набор инструментов для управления, масштабирования и соответствия требованиям:
- Мониторинг и наблюдаемость в реальном времени — полная прозрачность процессов и состояния ресурсов, включая логи, метрики и оповещения.
- Автоматическое масштабирование — ресурсы автоматически подстраиваются под нагрузку, без ручного вмешательства.
- Гибкие рабочие пространства — можно настраивать среду под разные проекты, команды и задачи.
- Выбор региона развертывания — помогает сохранять локальность данных и соблюдать требования по суверенитету и конфиденциальности.
- Соответствие нормативным требованиям — встроенные инструменты и настройки безопасности соответствуют международным стандартам и индустриальным регламентам.
Эти функции делают DGX Cloud Lepton не просто удобным инструментом, а инфраструктурной основой для серьезной ИИ-разработки в масштабах компаний, стран и отраслей.
Стратегические партнерства и расширение сети
Nvidia активно выстраивает экосистему вокруг DGX Cloud Lepton, превращая ее в нечто большее, чем просто платформу. В этот альянс входят ведущие игроки облачного рынка, ИИ-индустрии и венчурного капитала:
- Облачные и инфраструктурные гиганты: AWS, CoreWeave, Lambda, Microsoft Azure, Foxconn, Yotta.
- Разработчики ИИ и open-source платформы: Hugging Face, Mistral AI, Together AI.
- Венчурные фонды и инвесторы: Accel, Elaia, Partech, Sofinnova Partners.
Одно из ключевых направлений — сотрудничество с Hugging Face, в рамках которого предоставляются обучающие ИИ-кластеры как услуга. Это важный шаг в поддержку разработчиков, работающих с открытыми моделями.
Кроме того, Nvidia запустила специальную программу поддержки: стартапы, входящие в портфели партнерских венчурных фондов, могут получить до 100 000 долл. в виде кредитов на использование GPU, а также помощь от инженеров и экспертов Nvidia. Это дает молодым компаниям возможность быстрее развивать и тестировать свои ИИ-решения без необходимости сразу инвестировать в дорогостоящую инфраструктуру.
Доступность и перспективы
Пока технологические гиганты соревнуются за доминирование в облаке, Nvidia занимает уникальную позицию: не конкурирует с гиперскейлерами, а объединяет их ресурсы — превращая глобальную сеть GPU в универсальную, доступную инфраструктуру для всего ИИ-сообщества.
Вместо создания еще одного закрытого облака, Nvidia делает ставку на открытую модель агрегирования, где разработчики получают:
- доступ к десяткам тысяч GPU от разных провайдеров через единый API;
- единый стек инструментов (NIM, NeMo, Blueprints и др.);
- соблюдение требований по локализации и нормативной совместимости.
Эта стратегия превращает DGX Cloud Lepton в инфраструктурный «лейер» нового поколения, поверх которого могут строиться как стартапы, так и корпоративные ИИ-платформы — независимо от географии и объема.