Nvidia запускает глобальную платформу ИИ-инфраструктуры DGX Cloud Lepton

Весной 2025 года Nvidia сделала ход, который может изменить рынок облачных ИИ-вычислений. Компания приобрела китайский стартап Lepton AI и уже через два месяца представила его новую версию — DGX Cloud Lepton. Это не просто ребрендинг, а запуск глобальной платформы, превращающей тысячи распределенных GPU по всему миру в единую ИИ-инфраструктуру нового поколения. Основатели Lepton — Янцин Цзя (экс-вице-президент по технологиям в Alibaba) и Цзюньцзе Бай также присоединились к Nvidia, чтобы продолжить работу над проектом на новом уровне. В статье — как работает этот подход, зачем он Nvidia и что это меняет для разработчиков и индустрии в целом.

Как работает DGX Cloud Lepton?

DGX Cloud Lepton — единая точка входа в глобальную экосистему GPU, превращающая разрозненные облачные ресурсы в единую суперструктуру для искусственного интеллекта. Рынок уже масштабируется:.

По данным исследований, рынок облачных GPU, оцениваемый в $3,17 млрд в 2023 г., к 2032 г. достигнет почти $47 млрд при среднегодовом росте около 35 %. Отдельный сегмент — GPU as a Service, — уже в 2025 г. оценивается приблизительно в $5 млрд и, по прогнозам, вырастет до $32 млрд к 2034 г. при CAGR около 23 %. 

Nvidia взяла вычислительные мощности от ведущих облачных провайдеров — AWS, CoreWeave, Lambda и других — и связала их в единый программный интерфейс, доступный через одну интегрированную платформу, где не важны ни география, ни провайдер, ни архитектура кластера. Вся эта инфраструктура работает на фирменном ИИ-стеке Nvidia, в который входят:

  • NIM (NVIDIA Inference Microservices) — микросервисы для молниеносного вывода моделей в продакшн;
  • NeMo — платформа для создания и адаптации LLM и мультимодальных моделей;
  • Blueprints — готовые шаблоны и архитектуры для быстрой сборки ИИ-приложений;
  • Cloud Functions — модульные ИИ-функции, готовые к запуску без лишнего кода.

С этой платформой разработчики получают предсказуемое поведение, гибкую масштабируемость и мгновенный доступ к GPU-производительности мирового класса — независимо от того, где и у кого размещены серверы. DGX Cloud Lepton делает для ИИ-инфраструктуры то, что облака сделали для хранения данных — снимает ограничения и открывает глобальный доступ.

Три ключевых рабочих процесса

Платформа предлагает гибкую архитектуру, которая охватывает весь жизненный цикл разработки и внедрения ИИ-моделей — от первой строчки кода до масштабируемого продакшна. Платформа поддерживает три основных рабочих режима, каждый из которых нацелен на конкретные этапы работы с ИИ.

Dev Pods — личная ИИ-лаборатория в облаке

Это интерактивные среды, в которых легко работать с такими инструментами, как Jupyter Notebooks, VS Code и SSH. Все уже настроено для запуска кода прямо на GPU. Такой формат удобно использовать для прототипирования, отладки и первых экспериментов с моделями — быстро, гибко и без лишних технических настроек.

Batch Jobs — тяжелые вычисления под контролем

Для масштабных, ресурсоемких задач, обучение моделей, генерация датасетов и массивная предобработка, предназначен режим Batch Jobs. Система автоматически распределяет нагрузку по множеству узлов, а разработчик получает мониторинг в реальном времени, логи и метрики — полную прозрачность и контроль.

Inference Endpoints — масштабируемое ИИ в действии

Когда модель готова, пора вывести ее в мир. Inference Endpoints позволяют развернуть любой тип модели — от open-source до кастомной — как масштабируемую высокодоступную конечную точку API. Поддерживаются как контейнеры с NVIDIA NIM, так и собственные образы, с возможностью автоматического масштабирования под нагрузку.

DGX Cloud Lepton превращает каждую стадию ИИ-проекта в управляемый, быстрый и предсказуемый процесс, позволяя разработчикам сосредоточиться на инновациях, а не на инфраструктуре.

Расширенные операционные функции

DGX Cloud Lepton не просто объединяет вычислительные ресурсы — платформа также включает в себя мощный набор инструментов для управления, масштабирования и соответствия требованиям:

  • Мониторинг и наблюдаемость в реальном времени — полная прозрачность процессов и состояния ресурсов, включая логи, метрики и оповещения.
  • Автоматическое масштабирование — ресурсы автоматически подстраиваются под нагрузку, без ручного вмешательства.
  • Гибкие рабочие пространства — можно настраивать среду под разные проекты, команды и задачи.
  • Выбор региона развертывания — помогает сохранять локальность данных и соблюдать требования по суверенитету и конфиденциальности.
  • Соответствие нормативным требованиям — встроенные инструменты и настройки безопасности соответствуют международным стандартам и индустриальным регламентам.

Эти функции делают DGX Cloud Lepton не просто удобным инструментом, а инфраструктурной основой для серьезной ИИ-разработки в масштабах компаний, стран и отраслей.

Стратегические партнерства и расширение сети

Nvidia активно выстраивает экосистему вокруг DGX Cloud Lepton, превращая ее в нечто большее, чем просто платформу. В этот альянс входят ведущие игроки облачного рынка, ИИ-индустрии и венчурного капитала:

  • Облачные и инфраструктурные гиганты: AWS, CoreWeave, Lambda, Microsoft Azure, Foxconn, Yotta.
  • Разработчики ИИ и open-source платформы: Hugging Face, Mistral AI, Together AI.
  • Венчурные фонды и инвесторы: Accel, Elaia, Partech, Sofinnova Partners.

Одно из ключевых направлений — сотрудничество с Hugging Face, в рамках которого предоставляются обучающие ИИ-кластеры как услуга. Это важный шаг в поддержку разработчиков, работающих с открытыми моделями.

Кроме того, Nvidia запустила специальную программу поддержки: стартапы, входящие в портфели партнерских венчурных фондов, могут получить до 100 000 долл. в виде кредитов на использование GPU, а также помощь от инженеров и экспертов Nvidia. Это дает молодым компаниям возможность быстрее развивать и тестировать свои ИИ-решения без необходимости сразу инвестировать в дорогостоящую инфраструктуру.

Доступность и перспективы

Пока технологические гиганты соревнуются за доминирование в облаке, Nvidia занимает уникальную позицию: не конкурирует с гиперскейлерами, а объединяет их ресурсы — превращая глобальную сеть GPU в универсальную, доступную инфраструктуру для всего ИИ-сообщества.

Вместо создания еще одного закрытого облака, Nvidia делает ставку на открытую модель агрегирования, где разработчики получают:

  • доступ к десяткам тысяч GPU от разных провайдеров через единый API;
  • единый стек инструментов (NIM, NeMo, Blueprints и др.);
  • соблюдение требований по локализации и нормативной совместимости.

Эта стратегия превращает DGX Cloud Lepton в инфраструктурный «лейер» нового поколения, поверх которого могут строиться как стартапы, так и корпоративные ИИ-платформы — независимо от географии и объема.

Что будем искать? Например,ChatGPT

Мы в социальных сетях