Виртуализация как основа для гибкой ИТ-инфраструктуры

Виртуализация давно стала ключевой технологией в центрах обработки данных и корпоративных ИТ-системах. Сегодня, когда бизнес-среда стремительно меняется, виртуализация служит фундаментом гибкой инфраструктуры, которая помогает компаниям быстро адаптироваться к новым условиям. В статье подробно расскажем, как виртуализация повышает адаптивность бизнеса, какие преимущества она дает, а также о возможных сложностях при внедрении, эксплуатации и способах их преодоления.

История виртуализации. Зарождение в эпоху мэйнфреймов (1960-е — 1970-е гг.)

Первые шаги виртуализации были сделаны в 1960-х годах на больших ЭВМ (мейнфреймах). В те времена фантазией казалось, что одна машина может одновременно «обслуживать» сразу нескольких пользователей. 

Одними из пионеров стали General Electric и Bell Labs, а затем к проектам подключилась IBM. В 1967 году IBM выпустила операционную систему CP-40 для своего мейнфрейма System/360 Model 40. Это была первая ОС с полной виртуализацией — она могла создавать до 14 виртуальных машин, каждая со 256 Кб памяти. По сути, CP-40 «разрезала» один мэйнфрейм на множество независимых компьютеров, каждый из которых видел свои ресурсы. 

Одновременно с CP-40 была разработана и система CMS, игравшая роль легкой пользовательской среды внутри каждой виртуальной машины. Первый релиз связки CP/CMS состоялся в 1968 году, а к началу 1970-х появился стабильный коммерческий продукт VM/370 для новой линейки мейнфреймов System/370. 

С тех пор в крупных ЦОДах применялись операционные системы виртуальных машин (CP/CMS, VM/370, VP/CSS и т. д.), позволяющие запускать десятки «виртуалок» на одном мэйнфрейме с изоляцией и совместным использованием ресурсов. 

IBM System/360 Model 40 (1960-е годы) — именно на таком «шкафу» IBM реализовала первые виртуальные машины (CP-40). Можно сказать, первая виртуалка «весила» целый зал, и лишь избранные могли снять в нем «номер».

Появление серверной виртуализации (1990-е — 2000-е гг.)

В эпоху микрокомпьютеров и ПК интерес к виртуализации почти исчез — не было аппаратной поддержки и особой необходимости. Однако к концу 1990-х она вернулась с новой силой на x86-серверах. 

В 1998 году группа исследователей во главе с Диан Грин основала компанию VMware. Уже в мае 1999-го VMware выпустила продукт Workstation для ПК, позволяющий запускать несколько ОС на одном компьютере. В 2001 году появились серверные гипервизоры VMware GSX (hosted) и ESX (bare metal) — это был прорыв: «замостить» один мощный сервер десятком виртуалок стало реальностью.

Появились и другие решения. Так в 2003 году Кембриджский университет опубликовал первый открытый гипервизор Xen, а в 2007 году в ядро Linux включили модуль KVM. Параллельно Microsoft развивала Virtual Server и Hyper-V, а Oracle приобрела технологии Sun (в частности, InnoTek/VirtualBox). 

К середине 2000-х виртуализация серверов стала обыденностью: компании консолидировали множество сервисов на одном железе, существенно экономя ресурсы и упрощая администрирование. 

Аналогия: если раньше каждой службе нужен был свой «особняк» — отдельный физический сервер, то теперь службы селятся по квартирам в одном доме, разделяя вход и коммуникации, но живут независимо друг от друга.

Контейнеры и оркестрация (2010-е – наши дни)

В 2010-е годы появился новый виток виртуализации — контейнеризация. Вместо полного клонирования всей ОС виртуализируется только среда приложения. 

В 2013 году компания Docker представила открытый проект Docker Engine — платформу, которая упаковывает приложение вместе со всеми его зависимостями в легкий контейнер. Контейнеры стали своего рода «чемоданчиками» для программ: в них лежат код приложения и все необходимое окружение, и этот чемодан можно запустить где угодно, не беспокоясь о настройке среды. 

В 2014 году Google объявил о запуске Kubernetes — системы оркестрации контейнеров. Kubernetes можно представить как дирижера, управляющего огромным оркестром контейнеров: он автоматически размещает их по серверам, следит за нагрузкой и при необходимости масштабирует. 

Сегодня связка контейнеров и Kubernetes стала стандартом в облачных инфраструктурах и практиках DevOps. Архитектура Docker на физическом Linux-сервере: приложение и все зависимости упакованы внутри контейнера, а общее ядро ОС (Linux) используется совместно. 

В отличие от виртуальных машин, контейнеры не запускают отдельную гостевую ОС — они работают в единой среде, разделяя ядро хост-ОС. Поэтому контейнер обычно «легче» и разворачивается быстрее, хотя и зависит от возможностей ОС хоста. Для сравнения, виртуальная машина содержит полноценную гостевую ОС, что дает больше независимости ценой большего расхода ресурсов.

Адаптация к изменениям в бизнес-среде

Современный бизнес требует от ИТ-инфраструктуры высокой гибкости. Новые проекты, всплески нагрузки или переход на удаленную работу — все эти изменения нужно поддержать незамедлительно. 

Виртуализация позволяет запускать несколько изолированных виртуальных машин на одном физическом сервере, отвязывая софт от конкретного «железа». За счет этого новые серверы и сервисы разворачиваются за минуты, а не недели — не нужно ждать поставки оборудования. ИТ-отдел может оперативно масштабировать ресурсы: при росте трафика добавить мощности существующим ВМ или поднять новые экземпляры из шаблона. 

Если выходит из строя физический узел, его виртуальные машины автоматически переносятся на резервный хост, снижая простой. Такая мобильность ресурсов обеспечивает бизнесу устойчивость к переменам: виртуальная среда помогает поддерживать непрерывность процессов и высокий уровень доступности даже в нештатных ситуациях.

Преимущества виртуализированной инфраструктуры

Виртуализация дает ИТ-инфраструктуре ряд существенных преимуществ, повышающих ее эффективность и надежность: 

  1. Масштабируемость и гибкость. Виртуальные ресурсы можно быстро нарастить под текущие задачи. Добавление CPU, памяти или диска виртуальной машине осуществляется программно, без модернизации «железа». Новые серверы запускаются как ВМ из готовых шаблонов за считанные минуты. Инфраструктура растет синхронно с потребностями бизнеса, повышая его адаптивность.
  2. Отказоустойчивость. ВМ не привязаны жестко к конкретному серверу, поэтому обеспечить высокую доступность проще. Легко делать бэкапы и клоны виртуальных машин и запускать их на другом узле при сбое оборудования. В кластере гипервизоров выход из строя одного хоста приведет лишь к автоматическому перезапуску его ВМ на резервном узле. Изоляция между машинами не дает сбою одной ВМ нарушить работу других, что повышает общую отказоустойчивость систем.
  3. Экономия ресурсов. Консолидация серверов с помощью виртуализации позволяет эффективнее задействовать вычислительные мощности. Вместо десятка недогруженных физических машин можно запустить их роли на нескольких более мощных хостах, распределяя ресурсы между ВМ по фактической потребности. Оставшиеся мощности используются другими рабочими машинами, исключая простой железа. В итоге снижается количество оборудования и расходы на его закупку, энергопитание и обслуживание.
  4. Быстрое развертывание и внедрение. Виртуализированная среда ускоряет цикл разработки и запуска новых продуктов. Тестовые или промежуточные серверы поднимаются мгновенно и без риска для боевой среды. Можно клонировать типовую ВМ, чтобы проверить обновление или новую функцию, а затем так же быстро внедрить ее в рабочую инфраструктуру. Это сокращает время вывода новых сервисов на рынок и повышает конкурентоспособность компании.

Сложности и риски виртуализации

При переходе на виртуализированную инфраструктуру возникают и определенные сложности. Заранее зная о потенциальных рисках, можно их существенно смягчить:

  1. Лицензирование ПО. Платформы виртуализации от крупных вендоров (например, VMware) обходятся дорого и влияют на бюджет проекта. Кроме того, лицензирование серверных ОС и прикладного ПО при переносе в ВМ может осложниться: метрики зачастую привязаны к физическим CPU и другим ресурсам, что приводит к дополнительным затратам. Эти факторы нужно учесть заранее при расчете экономического эффекта.
  2. Производительность. Запуск множества ВМ на одном хосте создает конкуренцию за его ресурсы. Если сервер перегружен, страдают все виртуальные машины на нем. Необходимо контролировать использование CPU, памяти, диска и избегать перегрузок. Некоторые ресурсоемкие или чувствительные к задержкам приложения могут работать менее эффективно под гипервизором. Кроме того, без кластеризации сбой физического узла приведет к простою всех ВМ на нем.
  3. Компетенции персонала. Для сопровождения виртуальной инфраструктуры требуются новые навыки. Админам нужно разобраться в работе гипервизора и инструментах управления виртуальной средой. Без подготовки возможны ошибки конфигурации, снижающие эффективность и безопасность. Поэтому при внедрении виртуализации часто необходимо обучить команду или привлечь экспертов на этапе запуска.
  4. Миграция и совместимость. Перевод существующих серверов в виртуальные машины (P2V) — нетривиальная задача, требующая тщательного планирования и временных окон. При смене платформы виртуализации (например, с VMware на KVM) возникают сложности конвертации образов и перенастройки процессов. Без пилотного проекта и четкого плана такие переходы чреваты сбоями, поэтому им стоит уделить особое внимание.

Технологии и платформы виртуализации

Коммерческие лидеры

Наиболее распространенной платформой остается VMware vSphere — промышленный стандарт с богатым функционалом для корпоративных дата-центров. Конкурирует с ним Microsoft Hyper-V, встроенный в Windows Server и хорошо знакомый организациям, использующим Windows-стек. Оба решения проверены временем, обеспечивают высокую стабильность и поддержку. Минус — зависимость от зарубежного ПО и значительные затраты на лицензии. 

Open source решения

В основе open-source виртуализации лежит гипервизор KVM, встроенный в ядро Linux. На его базе работают такие платформы, как Proxmox VE (кластерное управление ВМ и контейнерами через web-интерфейс) и OpenStack (масштабная система для частных и публичных IaaS-облаков). Эти инструменты позволяют выстроить гибкую инфраструктуру без крупных расходов на лицензии, хотя требуют квалификации для поддержки.

Отечественные разработки

В России появились собственные системы виртуализации, зачастую на базе open source. Например, «Ред Виртуализация» от Ред Софт (управление серверами на KVM с интеграцией в РЕД ОС) или гиперконвергентная платформа vStack (входит в корпорацию ITG). Есть и другие решения (AERODISK, ROSA, Selectel и др.), призванные заменить иностранные аналоги. Выбор зависит от потребностей: требуемый функционал, совместимость с оборудованием, наличие поддержки и компетенций команды. 

От мала до велика виртуализация применяется повсеместно. Малый бизнес с ее помощью экономит на оборудовании, крупные предприятия консолидацией серверов упрощают управление и повышают отказоустойчивость, облачные провайдеры строят на виртуализации сервисы IaaS (виртуальные серверы, VDI и др.) для своих клиентов. Эта технология универсальна — она востребована всюду, где нужно быстро и гибко управлять вычислительными ресурсами.

Практические рекомендации

Миграция неизбежна. Использование иностранных виртуализаторов становится все более затруднительным: вендоры переходят на подписную модель и усиливают контроль за использованием своих продуктов, что повышает совокупную стоимость владения. Добавляются сложности с получением официальной поддержки, особенно если решение масштабно развернуто на несколько географически распределенных ЦОДов. В связи с этим можно выделить несколько путей развития платформ виртуализации:

  1. Госструктуры: планово переходят на отечественные решения из реестра российского ПО (с доступной поддержкой). Миграция уже идет: поэтапно переносятся сервисы, выявляются «узкие места» и ошибки в отечественном ПО, в сотрудничестве с разработчиками эти дефекты устраняются.
  2. Крупный и средний бизнес: критичные сегменты инфраструктуры, где того требуют регуляторы, переводятся на решения из «дружественных» юрисдикций или на отечественное ПО. Для остальной части используют open source платформы, развернутые внутренней командой либо интеграторами. При необходимости такие системы дорабатываются под особенности приложений и ИС, работающих на виртуальной платформе.
  3. Малый бизнес: все чаще смотрит в сторону open source-решений, которые можно быстро внедрить с помощью команды интегратора и затем поддерживать по модели Time & Material (оплата за фактическое время и ресурсы).
  4. Гибридный подход: практически все компании продолжают использовать гибридную схему, когда часть ресурсов размещена у облачных провайдеров, с разной степенью автоматизации и интеграции с собственной виртуальной средой.

Чтобы внедрение и эксплуатация виртуализации прошли успешно, рекомендуется соблюдать ряд лучших практик:

  1. Тщательно спланировать архитектуру и оценить экономику. Проанализируйте текущую нагрузку серверов и решите, какие из них имеет смысл консолидировать. Рассчитайте ожидаемую экономию (меньше физического оборудования, энергопотребления) и сопоставьте ее с затратами на гипервизор (лицензии, если нужны) и новое железо под ВМ. Это поможет обосновать проект руководству и выбрать оптимальную платформу — коммерческую или open source.
  2. Начать с пилотного развертывания. Не переносите все сервисы разом — стартуйте с пилотного проекта. Разверните несколько некритичных приложений в виде виртуальных машин и оцените их работу под нагрузкой. По итогам пилота откорректируйте конфигурацию (ресурсы ВМ, настройки гипервизора) и только затем распространяйте решение на весь ЦОД.
  3. Инвестировать в обучение персонала. Убедитесь, что администраторы обладают необходимыми знаниями по выбранной платформе. При необходимости организуйте обучение или пригласите экспертов на этап внедрения. Четко разграничьте зоны ответственности: кто отвечает за гипервизоры и железо, кто за сами виртуальные машины и их ОС, кто за резервное копирование и сеть.
  4. Закладывать отказоустойчивость и бэкапы. При проектировании виртуальной среды используйте механизмы высокой доступности. Объедините гипервизоры в кластер для автоматического перезапуска ВМ при сбое узла, настройте репликацию данных между хостами. Обязательно реализуйте регулярное резервное копирование виртуальных машин и периодически тестируйте восстановление. Критичные сервисы по возможности распределите по разным хостам или площадкам, чтобы выход из строя одного узла не остановил все сразу.
  5. Проводить поэтапную миграцию. Если предстоит перенос существующих серверов в ВМ или смена платформы виртуализации, разработайте подробный план. Выполняйте миграцию шаг за шагом, используя инструменты автоматизации (конвертеры образов и т. д.) и тестируя каждую систему после переноса. Заранее убедитесь в совместимости приложений с новой платформой и подготовьте обновления, если это необходимо.

Заключение

Виртуализация стала фундаментом гибкой ИТ-инфраструктуры, давая компаниям инструмент для быстрой адаптации к переменам. Она обеспечивает масштабируемость, высокую доступность, эффективное использование ресурсов и ускоренное развертывание сервисов — качества, необходимые современному ИТ.

Однако для полного раскрытия этих преимуществ важно тщательно подходить к проектированию и поддержке виртуальной среды, учитывая вопросы лицензирования, производительности, подготовки персонала и миграции. 

При грамотном выборе платформы и соблюдении лучших практик внедрения виртуализация действительно превращается в основу устойчивой и гибкой инфраструктуры, готовой к любым вызовам динамичного бизнеса.

Что будем искать? Например,ChatGPT

Мы в социальных сетях