ITGLOBAL.COM (международное облачное направление корпорации ITG) зафиксировал активный спрос на инсталляции с графическими ускорителями NVIDIA RTX Pro 6000 Blackwell Server Edition для задач искусственного интеллекта. В четвертом квартале 2025 года на эту модель пришлось 75% запросов на GPU‑инфраструктуру. По оценке специалистов компании, драйвером спроса стала потребность бизнеса в универсальных и экономически обоснованных конфигурациях для задач ИИ.

Эксперты отмечают, что если ранее высокая стоимость GPU-инфраструктуры вынуждала компании откладывать ИИ-проекты, то использование NVIDIA RTX Pro 6000 Blackwell Server Edition сделало такие конфигурации доступными для массового бизнеса. Дополнительным фактором стала универсальность ускорителя: модель покрывает большинство типовых корпоративных сценариев — от машинного обучения и инференса до виртуальных рабочих сред с графикой и инженерных приложений. Такой подход упрощает клиенту проектирование инфраструктуры и гибко перераспределяет ресурсы по мере изменения нагрузки.
«Рынок трансформируется и становится более прагматичным: компании ищут универсальные инструменты, способные эффективно решать задачи инференса, обучения и визуализации. NVIDIA RTX Pro 6000 Blackwell Server Edition стала «золотым стандартом», который позволяет не выбирать между производительностью и бюджетом. Для наших клиентов это возможность получить мощность уровня enterprise-решений, сохраняя гибкость управления ресурсами и оптимальную стоимость владения (TCO)».
Евгений Свидерский, директор облачного направления ITGLOBAL.COM, корпорация ITG
Ускоритель обеспечивает до 117 TFLOPS FP32 и оснащен 96 ГБ памяти GDDR7, что позволяет работать с крупными моделями и ресурсоемкими вычислительными задачами без постоянного перераспределения данных. Поддержка технологии Multi-Instance GPU (MIG) разделяет один физический ускоритель между несколькими задачами или командами, сохраняя изоляцию и управляемость ресурсов. Это востребовано в частных и гибридных облачных средах, где архитектура поддерживает параллельное распределение ресурсов GPU между независимыми сервисами с прогнозируемой производительностью на каждый инстанс.