В апреле институт IEEE, отвечающий за стандартизацию Ethernet, сформировал исследовательскую группу по изучению перспектив реализации систем 400GbE — 400 Gigabit Ethernet Study Group. Таким образом, сделан очередной шаг по повышению предельной скорости передачи данных. Причем шаг этот нетипичен — до этого Ethernet взбирался по шкале скоростей «десятикратными» скачками: 10 Мбит/с ⇒ 100 Мбит/c ⇒ 1 Гбит/с ⇒ 10 Гбит/с ⇒ 40/100 Гбит/с. На этот раз решено увеличить скорость только в четыре раза — видимо, возраст все-таки сказывается, ведь в этом году Ethernet отмечает свой 40-летний юбилей.

 

Еще на предыдущей «итерации» сетевой отрасли пришлось пойти на некий компромисс, предложив в одном стандарте IEEE 802.3ba-2010 поддержку двух скоростей: 40 и 100 Гбит/с. Сделано это было по ряду причин, одна из них — обеспечение совместимости с оптическими транспортными сетями (OTN), используемыми для дальней связи (см. Рисунок 1). OTN являются дальнейшим развитием сетей синхронной цифровой иерархии (SDH), наращивание скорости которых происходило с мультипликатором четыре: 155 Мбит/с ⇒ 622 Мбит/с ⇒ 2,5 Гбит/с ⇒ 10 Гбит/с ⇒ 40 Гбит/с. В результате скорости Ethernet и SDH впервые совпали на отметке 10 Гбит/с. На уровне 40 Гбит/с это случилось вновь.

Рисунок 1. «Зоны ответственности» IEEE (Ethernet) и ITU-T (OTN).
Рисунок 1. «Зоны ответственности» IEEE (Ethernet) и ITU-T (OTN).

 

Технология OTN, которую также именуют «цифровым упаковщиком», создавалась для того, чтобы эффективно передавать не только трафик TDM, но и потоки Ethernet. ITU-T определил четыре уровня OTN, скорости которых (2,5G, 10G, 40G и 100G) позволяли эффективно передавать как сигналы SDH, так и высокоскоростные потоки Ethernet (см. Рисунок 2). В июне 2010 года организации ITU-T и IEEE достигли важного соглашения о взаимной корреляции стандартов ITU-T G.709/OTN и IEEE 802.3ba-2010, которая гарантирует передачу сигналов Ethernet 40 и 100 Гбит/с через сети OTN. Для передачи потоков 40GbE могут применяться оптические транспортные блоки OTU-3 с номинальной скоростью 43 Гбит/с, а для потоков 100GbE — блоки OTU-4 со скоростью 112 Гбит/с (подробнее см. статью автора «После сорока» в мартовском номере «Журнала сетевых решений/LAN» за 2011 год).

Рисунок 2. Наращивание скоростей SDH, OTH и Ethernet.
Рисунок 2. Наращивание скоростей SDH, OTH и Ethernet.

 

Следующим шагом развития Ethernet уже точно станет увеличение скорости до 400 Гбит/с. Телекоммуникационная отрасль обещает «подстроиться», предложив для пятого уровня сетей OTN транспортные блоки со скоростью чуть больше 400 Гбит/с. Поскольку пакетный трафик становится доминирующим, именно сообщество Ethernet теперь определяет скорости систем связи, и на выбор в пользу 400G мнение «большого телекома» уже мало влияло. Почему же, несмотря на стремительный рост объемов сетевого трафика, IEEE не пошел на 10-кратное увеличение скорости систем Ethernet, то есть до 1 Тбит/с? Ответ прозаичен: важно не просто повысить скорость, но и обеспечить приемлемую стоимость решений, а вот добиться этого в случае терабитных скоростей в обозримой перспективе не представляется возможным.

ГОНКА ЗА СКОРОСТЬЮ

В июле 2012 года комитет IEEE 802.3 опубликовал основательное исследование перспектив роста трафика в сетях Ethernet — Industry Connections Ethernet Bandwidth Assessment. Его основные выводы таковы: к 2015 году потребность в пропускной способности сетей вырастет в 10 раз, а к 2020 году — в 20 раз по сравнению с 2010 годом. А это значит, что уже через пару лет технологии должны выйти на терабитный уровень, а через семь лет — на уровень 10 Тбит/с.

В эпицентре «цунами трафика» находятся центры обработки данных (ЦОД), причем трафик в них растет не только по традиционному направлению север — юг, то есть между установленными в них серверами и разбросанными по всему миру клиентами, но и по новому направлению запад — восток, и доля этого типа трафика становится все больше. Он связан с передачей данных между оборудованием внутри ЦОД в рамках обеспечения «жизнедеятельности» виртуализированных сред и построенных на их основе облаков.

Сегодня в ЦОД активно внедряются решения 10GbE и 40GbE. По данным Crehan Research, число поставленных серверных адаптеров с портами 10GbE, а также систем с интегрированными портами 10GbE в 2012 году превысило 7 млн и продолжает стремительно расти. Что же касается портов 40GbE, быстрый рост их популярности начнется только через пару лет (см. Рисунок 3).

Рисунок 3. Поставки серверных адаптеров с портами 10GbE и 40GbE, а также систем с интегрированными портами 10GbE и 40GbE.
Рисунок 3. Поставки серверных адаптеров с портами 10GbE и 40GbE, а также систем с интегрированными портами 10GbE и 40GbE.

 

Рост числа 10-гигабитных подключений серверов, естественно, требует более скоростных каналов для агрегации трафика. Однако 100-гигабитные решения пока не очень востребованы, в основном продаются коммутаторы с портами 40GbE (см. Рисунок 4). Причина — неприемлемо высокая цена портов 100GbE. И это очень важный урок, который учли эксперты при определении следующего скоростного уровня, сделав выбор в пользу 400G, а не 1T!

Рисунок 4. Поставки коммутаторов для ЦОД с портами 40GbE и 100GbE.
Рисунок 4. Поставки коммутаторов для ЦОД с портами 40GbE и 100GbE.

 

Так почему 100GbE оказался непозволительно дорог? Во многом это связано с высокой стоимостью, значительным энергопотреблением и большими размерами высокоскоростных трансиверов первого поколения CFP. В этой связи следует заметить, что разработчики первых систем 100GbE стремились максимально использовать существующую элементную базу, созданную для 10-гигабитных систем. Для достижения более высокой скорости было решено (и зафиксировано в стандарте IEEE 802.3ba-2010) перейти с последовательной на параллельную передачу сигнала по нескольким линиям (lane). При этом для получения требуемых 100 Гбит/с непосредственно в трансивере поддерживается 10 электрических потоков по 10 Гбит/с. Для передачи этих потоков «снаружи» могут применяться отдельные линии связи, как это реализовано в системах 100GBaseCR10 (подключение по медножильной проводке на расстояние до 7 м) или в системах 100GBaseSR10 (многоволоконная многомодовая оптика, дальность до 150 м).

В дальнобойных вариантах для одномодового волокна 100GBaseLR4 и 100GBaseER4 предусматривается мультиплексирование нескольких потоков. В соответствующих трансиверах CFP устанавливается специальный конвертер, преобразующий 10 входящих 10-гигабитных электрических потоков в четыре потока по 25 Гбит/с. Далее эти потоки «окрашиваются» с применением стандартной частотной сетки WDM и мультиплексируются для передачи по одному волокну (см. Рисунок 5).

Рисунок 5. Структура трансивера 100GBaseLR4 первого поколения.
Рисунок 5. Структура трансивера 100GBaseLR4 первого поколения.

 

Таким образом, высокие стоимость, энергопотребление и размеры трансивера обусловлены большим числом (десять) обрабатываемых электрических потоков. Неслучайно в отрасли были инициированы несколько новых проектов, направленных на снижение стоимости решений 100GbE, причем эти проекты ориентированы на использование электрических потоков 25 Гбит/с. Один из таких проектов ведет рабочая группа IEEE P802.3bj Task Force, разрабатывающая технологии 100 Gigabit Ethernet для объединительных панелей и медной проводки. В частности, более привлекательной альтернативой 100GBaseCR10 может стать технология 100GBaseCR4, в которой для достижения суммарной скорости 100G используется четыре потока 25 Гбит/с. Принять стандарт на эту технологию планируется в 2014 году.

Другая группа — IEEE P802.3bm Task Force — занимается развитием оптических решений. В частности, она работает над технологией для передачи 100 Гбит/с по четырем оптическим многомодовым волокнам и — с использованием четырехволнового спектрального уплотнения CWDM — по одному одномодовому волокну. В обоих случаях внутри трансивера используются электрические потоки по 25 Гбит/с. Спецификации IEEE P802.3bm Task Force должны быть опубликованы в 2015 году.

Как видим, изначальные спецификации на технологию 100 Gigabit Ethernet оказались далеко не самыми оптимальными, что привело к появлению новых проектов, нацеленных на создание решений 100GbE с лучшими характеристиками. Предусматриваемый ими переход от 10- к 25-гигабитным электрическим потокам позволит снизить стоимость, увеличить плотность портов и сократить энергопотребление.

Скорость 100 Гбит/с можно получить, объединив электрические потоки с различной скоростью — например, 10 по 10 Гбит/с (как это делается, скажем, в трансиверах CFP 100GBaseLR4 и 100GBaseER4), 5 по 20, 4 по 25, 2 по 50 Гбит/с либо используя один поток 100 Гбит/с. Как показала история со 100GbE, оптимальным по совокупности параметров, с учетом современного состояния микро- и оптоэлектроники, является использование 25-гигабитных оптических линий. Вопрос лишь в организации массового производства недорогих модулей на 25 Гбит/с.

Поток 400 Gigabit Ethernet тоже можно «сложить» различными способами. Вот некоторые наиболее обсуждаемые в отрасли варианты: 16 потоков по 25 Гбит/с, 8 по 50, 4 по 100 Гбит/с. Согласно указанным выше причинам, наиболее вероятным первым вариантом реализации 400GbE станут решения, оперирующие 16 потоками 25G, которые могут быть, например, мультиплексированы в режиме WDM для передачи по одному одномодовому волокну (см. Рисунок 6).

Рисунок 6. Один из вариантов реализации трансивера 400GbE.
Рисунок 6. Один из вариантов реализации трансивера 400GbE.

 

Далее, по мере развития электроники и оптики, акценты, скорее всего, будут перенесены на решения, работающие с потоками 50 Гбит/с. Они будут реализованы в трансиверах второго поколения CDFP2. Ну а следующий шаг — оперирование 100-гигабитными электрическими потоками, что позволит еще более сократить размеры трансиверов (см. Рисунок 7).

Рисунок 7. Развитие трансиверов 400G.
Рисунок 7. Развитие трансиверов 400G.

 

Появится ли вариант 400GbE для медной проводки? Ответа на этот вопрос пока нет. Председатель исследовательской группы IEEE 802.3 400 Gb/s Ethernet Study Group Джон Д’Амброзия, который также имеет должность Ethernet-евангелиста в компании Dell, отмечает, что все большую роль в развитии «медного» Ethernet будут играть альтернативные алгоритмы кодирования, а также механизмы прямого исправления ошибок (FEC). Такой механизм в качестве опции добавлен в медножильный вариант технологии 100GbE — 100GBaseCR10 (см. также статью Ивана Энгельса «Быстрые сети стандарта 40GBaseT» в этом номере). Его использование может позволить в очередной раз продлить жизнь медной проводки, и появление варианта 400GbE для меди отнюдь не исключено.

Основной средой для 400GbE, очевидно, будет оптика. Вероятно, вначале появится короткодействующий вариант для многоволоконных многомодовых систем, который в случае принятия схемы 16×25 Гбит/с потребует использования групповых коннекторов на 32 волокна. Дальность передачи в этом варианте вряд ли превысит 100 м — по крайней мере, именно такова максимальная дальность систем 100GbE с поддержкой потоков 25 Гбит/с, разработкой которых занимается рабочая группа IEEE P802.3bm Task Force. Для одномодовых вариантов, скорее всего, будет задействовано 16-канальное спектральное мультиплексирование WDM, что позволит «уложить» поток 400G в одно волокно.

Не исключается и применение для 400GbE многоволоконных одномодовых решений, которые также сейчас рассматриваются группой IEEE P802.3bm Task Force. Как в свое время разработчики 40GbE и 100GbE старались максимально использовать наработки систем 10GbE, так и первопроходцы в области 400GbE на начальном этапе будут стремиться задействовать уже имеющуюся технологическую базу. В частности, вполне возможно применение готовых модулей 100GBaseLR4, из которых могут быть «составлены» системы 400GbE (см. Рисунок 8).

Рисунок 8. Один из вариантов реализации системы 400GbE при использовании многоволоконной одномодовой кабельной инфраструктуры.
Рисунок 8. Один из вариантов реализации системы 400GbE при использовании многоволоконной одномодовой кабельной инфраструктуры.

 

Параллельные многоволоконные схемы уже успешно используются в многомодовых решениях. Как отмечает Скот Кипп, президент организации Ethernet Alliance и главный технический специалист компании Brocade, подобная схема может быть применена и для одномодовых систем. Для реализации показанной на Рисунке 7 системы на 400 Гбит/с потребуется использовать четыре пары одномодовых волокон. Такое решение может быть построено на базе существующей кабельной инфраструктуры с применением имеющихся модулей 100GbE, поэтому и затраты на его реализацию окажутся минимальными. Кроме того, как замечает руководитель Ethernet Alliance, при использовании такого решения можно при необходимости «разбивать» порт 400GbE в коммутаторе на четыре порта 100GbE, так же как сегодня модули 40G QSFP+ способны предоставлять четыре порта 10GbE.

Итак, работа над решениями 400GbE закипела. Появление стандартов обещано в 2016 году. Главное, что сетевая отрасль четко понимает, что важен не сам стандарт, а возможность его реализации в нужное время и по приемлемой стоимости. Кроме того, важно, что IEEE и ITU-U пришли к консенсусу относительно шага наращивания скорости — 4x. Если это так, то следующими после 400GbE станут системы 1,6 Тбит/с. Но об этом пока рано говорить. С практической точки зрения в области высокоскоростного Ethernet главная задача на ближайшие год-два — удешевить решения 100GbE, а также уменьшить их габариты и энергопотребление. От ее решения во многом будет зависеть и успех 400GbE, потому как продукты, обеспечивающие такую скорость, будут строиться на элементной базе систем 100GbE.

Александр Барсков — ведущий редактор «Журнала сетевых решений/LAN». С ним можно связаться по адресу: ab@lanmag.ru.