Ethernet может вновь стать доминирующим протоколом в ЦОД

Грядущее доминирование Ethernet в высокопроизводительных сетях для ИИ становится все более реальным благодаря консорциуму UEC, что заставляет Nvidia защищать свои позиции на рынке, где безраздельно властвовал ее InfiniBand. В статье разберем отчет TrendForce, сравним задержки, стоимость, экосистему и то, как новый стандарт Ultra Ethernet 1.0 борется с главными преимуществами проприетарного решения Nvidia.

Грядущее доминирование Ethernet в высокопроизводительных сетях для ИИ становится все более реальным благодаря консорциуму UEC, что заставляет Nvidia защищать свои позиции на рынке, где безраздельно властвовал ее InfiniBand. В статье разберем отчет TrendForce, сравним задержки, стоимость, экосистему и то, как новый стандарт Ultra Ethernet 1.0 борется с главными преимуществами проприетарного решения Nvidia.

InfiniBand может уступить Ethernet свои позиции в ЦОД

Ethernet может вновь стать ключевым стандартом для масштабируемых дата-центров, в то время как InfiniBand продолжает удерживать лидирующие позиции в высокопроизводительных вычислениях. Компании Broadcom и Nvidia активно борются за доминирование на этом рынке — об этом сообщает международное агентство рыночной аналитики TrendForce.

В отчете агентства отмечается, что по мере роста моделей искусственного интеллекта развитие дата-центров сместилось от вертикального масштабирования к горизонтальному. Речь идет о переходе от отдельных высокопроизводительных систем к крупным кластерам, состоящим из десятков тысяч взаимосвязанных узлов. В таких архитектурах сеть становится критическим элементом, напрямую влияющим на масштабируемость и эффективность всей инфраструктуры.

Сейчас же на рынке сетей для горизонтального масштабирования активно используются две технологии:

  • InfiniBand — высокопроизводительная технология, которую поддерживает Mellanox (дочерняя компания Nvidia). Она использует нативные протоколы RDMA, что позволяет достигать минимальной задержки в 2 микросекунды и исключает риск потери пакетов.
  • Ethernet — семейство технологий пакетной передачи данных между устройствами для компьютерных и промышленных сетей. Благодаря своей открытой экосистеме и экономичности, эта технология активно продвигается такими крупными игроками, как Broadcom.

TrendForce указывает, что в июне 2025 года Ethernet сделал «решительный шаг вперед». Консорциум Ultra Ethernet Consortium (UEC) представил спецификацию UEC 1.0, которая существенно улучшила сетевой стек Ethernet и приблизила его характеристики к уровню InfiniBand.  По мнению аналитиков, этот технологический сдвиг способен изменить баланс сил в сегменте масштабируемых дата-центров и постепенно увеличить долю Ethernet на рынке.

Чем сильна InfiniBand и почему она доминирует в ИИ-ЦОД

Архитектура InfiniBand для scale-out изначально поддерживает технологию удаленного доступа к памяти (RDMA). Принцип работы RDMA заключается в следующем:

  • сетевой адаптер с поддержкой RDMA (RNIC) инициирует операции DMA для чтения или записи данных напрямую из памяти хоста, минуя участие CPU;
  • RNIC инкапсулирует данные и передает их по сети напрямую на удаленный RNIC, который выполняет прямую запись или чтение в памяти принимающей системы без участия операционной системы.

В отличие от традиционных сетевых протоколов, таких как TCP/IP, этот процесс не требует участия CPU и сетевого стека ОС, что позволяет добиться чрезвычайно низкой задержки передачи данных — менее 2 микросекунд. Для задач распределенного обучения ИИ и высокопроизводительных вычислений это критически важно, поскольку задержки на уровне сети напрямую влияют на эффективность масштабирования.

Дополнительным преимуществом InfiniBand является встроенный механизм управления потоком на канальном уровне — Credit-Based Flow Control (CBFC). Он основан на системе кредитов, при которой отправитель может передавать данные только при наличии свободного буферного пространства у получателя. Такой подход предотвращает потерю пакетов на уровне сети и избавляет от необходимости использования сложных механизмов восстановления, характерных для Ethernet. 

Для работы с нативным RDMA требуется специализированная инфраструктура InfiniBand, включая коммутаторы. На протяжении многих лет рынок таких решений фактически контролировала Nvidia через дочернюю компанию Mellanox. Это обеспечило InfiniBand высокую степень оптимизации и тесную интеграцию аппаратного и программного стека, но одновременно сделало экосистему закрытой и привело к росту стоимости оборудования и обслуживания. По оценкам аналитиков, коммутаторы InfiniBand обходятся примерно в три раза дороже, чем сопоставимые решения Ethernet.

Эволюция технологии InfiniBand // Источник: TrendForce

Год

2011 2015 2017 2021 2024 2027 2030

Скорость передачи данных

FDR (Fourteen Data Rate) EDR (Enhanced Data Rate) HDR (High Data Rate) NDR (Next Data Rate) XDR (eXtreme Data Rate) GDR (E) LDR (E)

Пропускная способность / порт (8 линий)

109 Гбит/с 200 Гбит/с 400 Гбит/с 800 Гбит/с 1.6 Тбит/с 3.2 Тбит/с 6.4 Тбит/с
Пропускная способность / порт (4 линии) 54.5 Гбит/с 100 Гбит/с 200 Гбит/с 400 Гбит/с 800 Гбит/с 1.6 Тбит/с

3.2 Тбит/с

Пропускная способность / линия 13.6 Гбит/с 25 Гбит/с 50 Гбит/с 100 Гбит/с 200 Гбит/с 400 Гбит/с

800 Гбит/с

Технология модуляции NRZ NRZ NRZ PAM4 PAM4 PAM6 (E)

PAM6 (E)

Примечание: (E) означает «Оценочное значение»

Эволюция технологии InfiniBand демонстрирует устойчивый рост пропускной способности. От поколений FDR и EDR технология перешла к HDR, NDR и XDR, а в перспективе — к GDR и LDR с использованием более сложных схем модуляции, таких как PAM4 и PAM6. Это позволило InfiniBand долгое время сохранять технологическое лидерство в сегменте высокопроизводительных сетей для ИИ-дата-центров.

Как Ethernet пытался догнать InfiniBand через RDMA

Несмотря на доминирование InfiniBand в сегменте высокопроизводительных вычислений, Ethernet долгое время оставался основной сетевой технологией дата-центров благодаря своей открытой архитектуре, широкому выбору оборудования и более низкой стоимости. Попыткой приблизить Ethernet к возможностям InfiniBand стала технология RDMA over Converged Ethernet (RoCE), представленная ассоциацией InfiniBand Trade Association (IBTA) в 2010 году.

Первая версия технологии, RoCE v1, реализовывала RDMA поверх Ethernet на канальном уровне. Фактически она добавляла заголовок Ethernet к протоколу InfiniBand, что позволяло добиться низкой задержки, но существенно ограничивало область применения. RoCE v1 могла работать только в пределах одной подсети второго уровня и не поддерживала маршрутизацию через IP-сети, что делало ее малопригодной для крупных распределенных дата-центров.

Для повышения гибкости внедрения в 2014 году была представлена RoCE v2. В этой версии заголовок глобальной маршрутизации InfiniBand (GRH) был заменен на заголовок IP/UDP, что позволило Ethernet-коммутаторам и маршрутизаторам распознавать и передавать RoCE-пакеты. Благодаря этому RoCE v2 получила возможность работы через несколько подсетей и маршрутизаторов, значительно упростив интеграцию в существующую инфраструктуру дата-центров.

Сравнение технологий RDMA
Сравнение технологий RDMA

Однако за универсальность пришлось заплатить. Задержка в RoCE v2 остается выше, чем у нативного RDMA в InfiniBand, и составляет порядка 5 микросекунд. Кроме того, для минимизации потерь пакетов Ethernet-сети с RoCE требуют включения дополнительных механизмов управления трафиком, таких как приоритетная передача данных (Priority Flow Control, PFC) и явное уведомление о перегрузке (Explicit Congestion Notification, ECN). Эти механизмы усложняют настройку сети и повышают требования к качеству эксплуатации.

Таким образом, RoCE v2 позволил Ethernet приблизиться к InfiniBand по функциональности и масштабируемости, но не смог полностью устранить разрыв по задержкам и простоте работы без потерь. Именно эти ограничения долгое время оставляли InfiniBand предпочтительным выбором для ИИ-дата-центров, несмотря на более высокую стоимость и закрытую экосистему.

Ultra Ethernet Consortium и поворотный момент для Ethernet

Ситуация начала меняться в 2023 году, когда был создан консорциум Ultra Ethernet Consortium (UEC). В него вошли ключевые игроки рынка — AMD, Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta* и Microsoft. В отличие от экосистемы InfiniBand, где доминирует один вендор, UEC изначально сделал ставку на открытые стандарты и совместимость, чтобы снизить зависимость рынка от конкретного поставщика сетевых решений.

По данным TrendForce, именно деятельность UEC стала причиной того, что Ethernet в 2025 году сделал «решительный шаг вперед» в сегменте высокопроизводительных сетей для ИИ. В июне 2025 года консорциум представил первую официальную спецификацию UEC 1.0, которая не просто доработала существующий подход RoCE v2, а предложила комплексное переосмысление сетевого стека Ethernet.

Спецификация UEC 1.0 охватывает сразу несколько уровней архитектуры — программный, транспортный, сетевой, канальный и физический. Такой подход позволил устранить часть фундаментальных ограничений Ethernet, которые ранее мешали ему конкурировать с InfiniBand в задачах масштабируемого обучения ИИ.

Эволюция технологии Ethernet // Источник: TrendForce

Год

2016 2018 2019 2021 2023 2025 2027

Общая пропускная способность на чип

3.2 Тбит/с 6.4 Тбит/с 12.8 Тбит/с 25.6 Тбит/с 51.2 Тбит/с 102.4 Тбит/с 204.8 Тбит/с

Количество портов на чип

32 64 64 64 64 64 64

Пропускная способность / порт

100 Гбит/с 100 Гбит/с 200 Гбит/с 400 Гбит/с 800 Гбит/с 1.6 Тбит/с

3.2 Тбит/с

Количество линий / порт 4 4 4 4 8 8

8

Пропускная способность / линия 25 Гбит/с 25 Гбит/с 50 Гбит/с 100 Гбит/с 100 Гбит/с 200 Гбит/с

400 Гбит/с

Модуляция NRZ NRZ NRZ PAM4 PAM4 PAM4

PAM6 [E]

Примечание: (E) означает «Оценочное значение»

Одним из ключевых элементов UEC 1.0 стала функция Packet Delivery Sublayer (PDS) на транспортном уровне. Она использует многоуровневую передачу данных (multipath), при которой между отправителем и получателем существует несколько равнозначных путей, или rails. Сетевая карта распределяет пакеты между этими путями на основе энтропийного значения, что позволяет передавать данные параллельно и эффективнее использовать доступную пропускную способность.

Такая архитектура повышает устойчивость сети: при возникновении проблем на одном из путей трафик может быть оперативно перераспределен, а потерянные пакеты — компенсированы без существенного влияния на задержки. По своей логике этот подход приближает Ethernet к принципам адаптивной маршрутизации, которые традиционно считались сильной стороной InfiniBand.

Для снижения риска потери пакетов в UEC 1.0 также предусмотрены два важных механизма. Первый — Link-Level Retry (LLR), позволяющий выполнять повторную передачу пакетов на канальном уровне, уменьшая зависимость от приоритетного управления потоком (PFC). Второй — опциональный механизм управления потоком на основе кредитов (CBFC), при котором отправитель может передавать данные только после получения подтверждения о наличии свободного буферного пространства у получателя. По своей логике он близок к CBFC в InfiniBand и позволяет приблизиться к работе без потерь.

За кем будущее и что выбирают компании

По оценке TrendForce, несмотря на заметный прогресс Ethernet, InfiniBand по-прежнему сохраняет ряд критических преимуществ. К ним относятся чрезвычайно низкая задержка передачи данных и архитектура, изначально рассчитанная на работу без потерь пакетов. Именно поэтому InfiniBand остается широко распространенным решением в современных ИИ-дата-центрах.

В то же время у этой технологии есть и очевидные ограничения. InfiniBand использует закрытую экосистему с ограниченным числом поставщиков, а стоимость оборудования и эксплуатации заметно выше, чем у Ethernet-решений. Эти факторы становятся все более чувствительными по мере роста масштабов дата-центров и увеличения числа узлов в кластерах.

Использование RoCE v2 поверх Ethernet не позволяет достичь той же минимальной задержки, что и у нативного RDMA в InfiniBand, однако оно предлагает открытую экосистему и значительно более низкие затраты на оборудование и обслуживание. Именно это, по мнению аналитиков, и подталкивает рынок к постепенному переходу на Ethernet-архитектуры в задачах масштабируемого обучения ИИ.

Сравнение ключевых параметров технологий выглядит следующим образом. InfiniBand обеспечивает задержку менее 2 микросекунд, тогда как для Ethernet с RoCE v2 этот показатель составляет менее 5 микросекунд. Текущая основная пропускная способность на порт у обеих технологий сопоставима и достигает 800 Гбит/с. При этом InfiniBand использует механизм Credit-Based Flow Control для работы без потерь, а Ethernet опирается на сочетание стандартных механизмов управления потоком 802.3x, PFC и ECN. Экосистема InfiniBand остается закрытой, тогда как Ethernet предлагает открытую модель с большим числом производителей. Стоимость оборудования InfiniBand, по оценкам TrendForce, примерно втрое выше, чем у сопоставимых Ethernet-решений.

Сравнение InfiniBand и Ethernet // Источник: TrendForce

Параметр

InfiniBand (RDMA) Ethernet (RoCE v2)

Задержка

< 2 мкс < 5 мкс

Текущая основная пропускная способность / порт

800 Гбит/с 800 Гбит/с
Механизм без потерь Credit-Based Flow Control (CBFC) Управление потоком Ethernet (802.3x), PFC, ECN
Экосистема Закрытая (Nvidia)

Открытая

Стоимость оборудования Высокая (1x)

Низкая (1/3)

На фоне этих изменений Nvidia также начала корректировать свою стратегию. Компания больше не ограничивается исключительно развитием InfiniBand и активно выходит на рынок Ethernet. Помимо коммутаторов InfiniBand серии Quantum, Nvidia предлагает Ethernet-решения под брендом Spectrum.

В текущем поколении коммутатор Quantum-X800 поддерживает скорость 800 Гбит/с на порт и оснащен 144 портами, обеспечивая суммарную пропускную способность 115,2 Тбит/с. Модель Spectrum-X800, в свою очередь, также поддерживает 800 Гбит/с на порт, но имеет 64 порта и общую пропускную способность 51,2 Тбит/с. Совмещенные версии с оптической упаковкой (CPO) для Quantum-X800 и Spectrum-X800 запланированы к выпуску во втором полугодии 2025 и во втором полугодии 2026 года соответственно.

Несмотря на то что Ethernet-коммутаторы Nvidia остаются дороже решений конкурентов, компания получает преимущество за счет глубокой интеграции с собственным аппаратным и программным стеком. В сочетании с DPU BlueField-3 и платформой DOCA 2.0 это позволяет реализовать высокоэффективную адаптивную маршрутизацию и сохранить контроль над ключевыми элементами инфраструктуры ИИ-дата-центров.

Куда движется Ethernet и что это значит для рынка ЦОД

Параллельно с развитием спецификации UEC консорциум Ethernet Alliance представил обновленную дорожную карту развития Ethernet на ближайшие годы. В ней ключевой акцент сделан на поддержку рабочих нагрузок искусственного интеллекта, повышение пропускной способности и энергоэффективности сетей.

Согласно дорожной карте, Ethernet продолжит наращивать скорости передачи данных в масштабах ИИ-кластеров. Речь идет о межсоединениях 100G–800G и перспективных решениях со скоростью до 1,6 Тбит/с. Эти показатели должны обеспечить работу все более крупных распределенных систем обучения и инференса без резкого роста задержек.

Отдельное внимание уделяется развитию оптических технологий следующего поколения. В дорожной карте упоминаются решения с линейно-прямой оптикой (LPO), а также новые высокоэффективные медные и волоконно-оптические интерфейсы, позволяющие снизить энергопотребление и тепловыделение при росте пропускной способности.

Еще одним важным направлением остается оптимизация Ethernet для работы в дата-центрах и облачных средах. В частности, подчеркивается дальнейшее развитие Ethernet с поддержкой RDMA (Remote Direct Memory Access), позволяющей серверам обмениваться данными напрямую между оперативной памятью, минуя центральный процессор. Это направление логично дополняет инициативы UEC и сближает Ethernet с архитектурными принципами, которые долгое время были характерны исключительно для InfiniBand.

Помимо ЦОД и облаков, Ethernet Alliance указывает на расширение роли технологии в сегментах периферийных вычислений и Интернета вещей. Стандарты Ethernet будут адаптироваться для работы с маломощными устройствами и большим числом сенсоров, что расширяет область применения технологии за пределы классических дата-центров.

Вывод

InfiniBand по-прежнему остается эталоном для высокопроизводительных сетей в ИИ-дата-центрах благодаря минимальной задержке и архитектуре, изначально рассчитанной на работу без потерь пакетов. Однако его закрытая экосистема и высокая стоимость оборудования все чаще становятся сдерживающими факторами по мере роста масштабов инфраструктуры.

Ethernet, напротив, долгое время уступал InfiniBand по техническим характеристикам, но за счет открытой модели, большого числа поставщиков и активного развития стандартов постепенно сокращает этот разрыв. Появление Ultra Ethernet Consortium и спецификации UEC 1.0 стало поворотным моментом, показав, что Ethernet способен эволюционировать не точечно, а на уровне всей архитектуры.

На практике это означает, что в ближайшие годы рынок ИИ-дата-центров, скорее всего, придет не к замене одной технологии другой, а к сосуществованию двух подходов. InfiniBand сохранит позиции там, где критична минимальная задержка и максимальная эффективность, тогда как Ethernet будет все активнее использоваться в масштабируемых и экономически чувствительных сценариях. Монополия InfiniBand постепенно ослабевает, и конкуренция в сетях для ИИ-ЦОД вступает в новую фазу.

* Meta признана в России экстремистской организацией и запрещена

Что будем искать? Например,ChatGPT

Мы в социальных сетях