Консолидируя и виртуализируя центры обработки данных, предприятия все чаще сталкиваются с тем, что их сетевая инфраструктура оказывается не готова для выполнения новых задач. Традиционные концепции и топологии обычно не отвечают новым требованиям. Примером тому может служить протокол Spanning Tree Protocol (STP), который хотя и подвергался многократным доработкам, но все равно имеет ряд существенных недостатков. Так, при его использовании возникают субоптимальные маршруты передачи данных. Даже если узлы являются соседями, но расположены в отдалении от корневого моста (Root Bridge), прямое соединение между ними может оказаться заблокированным. Это означает, что трафик от одного узла должен пройти весь путь до корневого моста, прежде чем отправиться к второму узлу. Кроме того, в протоколе Spanning Tree Protocol акцент делается на корне сетевой структуры, а следовательно, полная пропускная способность сети останется неиспользованной.

Технология кратчайшего соединения с помощью мостов (Shortest Path Bridging, SPB) вносит революционные изменения в эти традиционные сетевые архитектуры. Новый протокол оптимален для сетей с одним транзитным узлом (Single-Hop Network). Этот международно признанный стандартизованный протокол (IEEE 802.1aq) нацелен на обеспечение взаимодействия между сетями, где применяются транзитные узлы различных производителей. Стандарт 802.1aq изменяет подход к планированию сети, поскольку он нацелен прежде всего на упрощение инсталляции и эксплуатации провайдерских и корпоративных сетей, а также облачных сервисов.

Эта технология дает возможность создавать логические сети Ethernet на основе традиционных структур Ethernet. Для передачи сведений о сетевой логике, размерах и взаимосвязях используется протокол состояния канала (Link State Protocol, LSP). Сами кадры Ethernet (полезные данные) инкапсулируются в SPB. Передача данных может осуществляться между различными узлами в пределах одного ЦОД, а также между несколькими отдельными центрами, для чего задействуются все доступные физические соединения.

Технология SPB существует в двух вариантах: SPB-V и SPB-M. Эти протоколы похожи, поскольку в них используется контрольный протокол IS-IS, позволяющий сообщать всем подключенным узлам сведения о сетевой топологии. Различия касаются формата пакетов, масштабируемости, а также режима функционирования (Provisioning Mode). Поскольку протокол SPB-V использует традиционное форматирование кадра Ethernet стандарта 802.1Q, для его поддержки достаточно немного модифицировать аппаратное обеспечение коммутатора Ethernet. Что касается масштабируемости, то SPB-V способен обслуживать несколько сотен узлов. Кроме того, предоставлять MAC-адреса не требуется: они автоматически и динамически запрашиваются через сеть.

Протокол SPB-M использует формат пакетов 802.1ah (известен как MAC-inMAC) и может обслуживать до тысячи узлов. Когда в сеть добавляются новые станции, их необходимо задавать вручную, аналогично тому, как это делают провайдеры. От таких концепций, как TRILL, SPB отличает наличие интегрированного интерфейса для систем сквозного управления уровнем сервиса (см. Рисунок 1).

 

Рисунок 1. В сервис-ориентированных сетях протокол SPB реализуется в виде отдельного уровня.
Рисунок 1. В сервис-ориентированных сетях протокол SPB реализуется в виде отдельного уровня.

 

Функционал Ethernet OAM (IEEE 802.3ah, 802.1ag и ITU-T Y.1731) облегчает контроль за соблюдением соглашений об уровне сервиса (Service Level Agreement, SLA), поскольку у соответствующих решений часто уже имеется возможность доступа к зарекомендовавшим себя инструментам OAM. Благодаря этому, SPB особенно эффективен в случае его использования на интерфейсе между локальной и глобальной сетью.

Инфраструктура Ethernet должна поддерживать работу систем хранения и трафик данных между процессорами в ЦОД. При передаче IP-трафика по сети Ethernet возможна потеря отдельных кадров без далеко идущих последствий. Проблемы возникают, когда дело касается сетей хранения данных (таких как Fibre Channel) где используются протоколы, подразумевающие отсутствие потерь пакетов. Чтобы этого не происходило, протокол Ethernet необходимо усовершенствовать, обеспечив следующие две возможности.

Управление потоками в соответствии с приоритетом (Priority based Flow Control, PFC — 802.1Qb). На данный момент Ethernet стандарта 802.3 поддерживает механизм приостановки передачи (PAUSE), который в случае чрезмерной нагрузки на исходящий порт коммутатора генерирует пакет, уведомляющий входящий порт о необходимости приостановки передачи данных. Но для ЦОД этот механизм, скорее, нежелателен, поскольку лишь некоторые типы пакетов не терпят никаких потерь, а пакет PAUSE приостанавливает весь трафик. Чтобы этого не случилось, механизм контроля потоков в соответствии с приоритетом позволяет задать для коммутатора приоритетные типы пакетов, для которых необходимо вмешательство механизма PAUSE.

Избирательное оповещение о перегрузке (Quantized Congestion Notification, QCN — 802.1Qau). Механизм PFC хотя и является шагом вперед на пути к сетям Ethernet без потерь, но не способен решить главную проблему: хост-система отправляет слишком много данных в одну или несколько конечных точек, а они оказываются неспособны принять этот трафик данных, так как подключены либо по медленному физическому, либо по медленному логическому соединению. В этой ситуации нужен механизм, с помощью которого перегруженные порты могли бы сообщить станциям, создающим затор (причем только им), о необходимости замедлить или даже полностью приостановить передачу пакетов.

Однако в отличие от PFC, действие которого распространяется лишь на определенные приоритетные задачи, такой механизм затрагивал бы все передающие станции, от которых поступает трафик с определенным приоритетом, и при этом несправедливый штраф накладывается даже на станции, поддерживающие вполне разумную скорость передачи данных. QCN генерирует контрольные сообщения, которые из мест возникновения заторов передаются вверх по потоку в соответствующие точки реагирования (конечные станции или коммутаторы). В результате скорость передачи данных придется сократить только для части трафика с требуемым приоритетом.

ОПТИМИЗИРОВАННАЯ СЕТЕВАЯ ТОПОЛОГИЯ

Современные сети для ЦОД орентированы преимущественно на традиционный трафик в направлении север – юг (трафик между серверами и клиентами). Таким образом, они в меньшей степени рассчитаны на частое подключение новых серверов или их перемещение. В связи с увеличением значимости информационных потоков в направлении восток – запад в результате распространения сервис-ориентированных архитектур, роста трафика по Ethernet или IP от систем хранения, а также вследствие повсеместного внедрения виртуализации многоуровневая организация сетей в ЦОД требует пересмотра. Иерархия сети в вычислительном центре должна быть максимально плоской — в идеале иметь всего лишь два уровня (Tier), что позволит сократить продолжительность задержек и тем самым улучшить среднее время отклика приложений.

Вместе с тем виртуализация приложений создает очень динамичную среду, в которой виртуальные машины могут перемещаться в реальном времени в зависимости от текущих требований к ресурсам процессора, памяти и пропускной способности сети. Для этого сеть должна обеспечивать совместимость доменов на втором уровне, что будет способствовать мобильности виртуальных машин (см. Рисунок 2). Существующие подходы к маршрутизации в архитектуре ЦОД нуждаются в модификации, чтобы можно было создавать более крупные домены второго уровня.

 

Рисунок 2. SPB и инкапсулирование обеспечивают поддержку виртуализации.
Рисунок 2. SPB и инкапсулирование обеспечивают поддержку виртуализации.

 

Большинство серверов в ЦОД размещаются в стойках (Rack Mount Server), тем не менее некоторые решения старшего класса (High-End Solutions) реализуются с использованием модульных серверов (Blade-Server), подключенных к коммутатору Ethernet, который располагается в секции стойки (Sub-Rack) для модульных серверов. В некоторых ЦОД обе концепции реализуются параллельно. Серверы соединяются с уровнем доступа (Access Layer) ЦОД, на котором все чаще используются стационарные стоечные (Top-of-Rack) коммутаторы. Применение таких устройств облегчает прокладку кабельных соединений между отдельными стойками, что является одним из ключевых требований при планировании крупных центров обработки данных.

Часто уровень доступа представлен так называемыми рядными коммутаторами, устанавливаемыми в конце рядов стоек (End of Row, EOR). Оба описанных варианта обычно функционируют только на втором уровне модели OSI. Уровень доступа, как правило, переходит в уровень агрегирования, который расположен на втором или на втором/ третьем уровнях и, в свою очередь, ведет на уровень ядра (Core Layer) сети ЦОД, в большинстве случаев располагающийся на третьем уровне модели OSI. Все они связаны с глобальной сетью, обеспечивающей соединение с другими ЦОД, внешними отделениями в частных ЦОД или с клиентскими сетями (для ЦОД, ориентированных на предоставление облачных сервисов).

ПРОГНОЗЫ

Монтируемые в стойки и модульные серверы останутся традиционными компонентами и в ЦОД нового поколения (Next Generation DataСenter). По прогнозам экспертов, при реализации в них уровня доступа следует ожидать увеличения числа архитектур Top of Rack. Интересен тот факт, что в архитектуре будущих ЦОД не находится места для уровня агрегирования, что упрощает всю топологию и значительно уменьшает время передачи данных между отдельными сетями. Еще одно отличие от традиционных архитектур заключается в том, что за счет соединения коммутаторов между собой повышается эффективность обработки трафика в направлении восток – запад.

Кроме того, специалисты ожидают увеличения объемов трафика от мультимедийных приложений и систем хранения, а также вследствие динамичных перемещений виртуальных машин между серверами. С такими задачами призваны справиться соединения со скоростями 40 и 100 Гбит/с. Высокоскоростные соединения между коммутаторами требуются прежде всего сетям хранения данных (Storage Area Network, SAN), которые будут постепенно переноситься в инфраструктуру Ethernet.

Рене Принц-Шелтер — директор по подготовке продаж в отделе маркетинга компании AlcatelLucent Enterprise.

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF