Функциональные возможности устройств для сетей 10 Gigabit Ethernet впечатляют, однако пропускную способность 10 Гбит/с обеспечивает только продукт фирмы Force10.

Даже в условиях лабораторного тестирования производительность коммутаторов первого поколения, предназначенных для построения магистралей 10 Gigabit Ethernet (10GE), имела мало общего с заветным значением 10 Гбит/с. И все же их пропускная способность оказалась выше, чем у более ранних устройств, использующих технологию агрегации каналов, да и поддержка качества сервиса была на высоте.

Впервые получив возможность проверить, на что способны 10-гигабитные Ethernet-коммутаторы, мы сформировали исчерпывающий набор тестов на быстродействие. Она измерялась при передаче как гигабитного, так и 10-гигабитного трафика Ethernet.

Предоставить свои изделия для испытаний согласились только Avaya, Force10 Networks, Foundry Networks, Hewlett-Packard и Nortel, хотя приглашение было отправлено всем ведущим производителям. Мотивация отказов от тестирования была самой разной. Так, представители компании Alcatel сообщили, что поставки ее изделий для сетей 10GE начнутся не ранее середины года. По словам сотрудников Cisco Systems, корпорация разрабатывает новую модель коммутатора, которая появится на рынке уже в этом году.

Enterasys Networks и Extreme Networks сослались на недостаток оборудования и персонала, необходимых для сопровождения тестирования. Представителя Juniper заявили, что продукция фирмы ориентирована на операторский рынок, поэтому ее участие в тестировании оборудования для корпоративных сетей нецелесообразно. Проблемы с аппаратной частью помешали нам получить достоверные сведения о работе устройств Nortel.

В результате тестирования победителем оказался коммутатор E1200 производства Force10, который действительно способен передавать со скоростью 10 Гбит/с пакеты самой разной длины. Наименьшее время восстановления после разрыва соединения показали модели FastIron 400 фирмы Foundry и ProCurve Routing Switch 9300m корпорации Hewlett-Packard (по сути дела, это то же устройство, приобретаемое HP у Foundry в рамках OEM-соглашения). Наконец, в тестах на способность обрабатывать трафик в соответствии с установленной схемой QoS наилучшими были результаты Cajun P882 MultiService Switch производства Avaya. Он обладает наименьшими флуктуациями задержки передачи (jitter) и не отклонил ни одного пакета с высоким приоритетом.

Тем не менее параметры работы коммутаторов для сетей 10GE пока далеки от совершенства. Скажем, тот же E1200 фирмы Force10, победитель теста на быстродействие, продемонстрировал непомерно высокие значения задержки передачи и амплитуду ее флуктуаций. Остальные же устройства можно будет с полным правом отнести к категории оборудования для сетей 10GE только после значительного увеличения производительности коммутационной матрицы.

Результаты испытаний в известном смысле нас разочаровали, но ошибкой было бы оценивать коммутаторы, не принимая во внимание ситуацию в мире корпоративных сетей. Сейчас немногие пользователи готовы развертывать в своих организациях «чистые» сети 10GE, поэтому реализованную в этих устройствах поддержку множества сетевых интерфейсов и богатую функциональность трудно переоценить.

Так, при формировании опорной корпоративной сети как нельзя кстати окажутся средства поддержки избыточности отдельных компонентов и нескольких методов управления устройствами. Кроме того, протестированные коммутаторы прекрасно справляются с задачами, неспецифическими для 10-гигабитных сетей, например с перемаршрутизацией трафика в обход отказавшего соединения или с поддержкой механизмов QoS.

Кто быстрее?

Производительность коммутаторов позволили оценить четыре теста. Это работа в «уединенной» сети 10GE, передача гигабитного Ethernet-трафика по 10-гигабитной магистрали, восстановление передачи после сбоя соединения и приоритизация трафика.

Основная цель первого теста состояла в измерении базовых характеристик передачи пакетов по технологии 10GE. Нас интересовало, действительно ли можно получить пропускную способность 10 Гбит/с (хотя бы в лабораторных условиях) и какими при этом окажутся значения задержки и ее флуктуации.

Для проведения теста была сформирована сетевая среда, включавшая в себя один коммутатор с интерфейсами 10GE и генераторы/анализаторы трафика SmartBits производства Spirent Communications, оснащенные 10-гигабитными адаптерами XLW-3720A Tera-Metrics и гигабитными адаптерами LAN-3311 TeraMetrics. Конфигурация устройств SmartBits была настроена таким образом, что трафик поступал более чем с 2 тыс. виртуальных хост-компьютеров (в случае коммутаторов Cajun P882 — более чем с 1 тыс.).

В результате нам удалось сымитировать ситуацию одновременного подключения к коммутатору 10-гигабитной сети Ethernet огромного числа устройств. Все изготовители предоставили нам свои изделия с четырьмя 10-гигабитными интерфейсами, и только продукт Avaya имел два таких интерфейса.

В тесте использовались пакеты трех типов:

  • 64-байтовые, которые являются самыми короткими из допустимых в сетях Ethernet, а потому создают наибольшую нагрузку на сеть;
  • 256-байтовые, размер которых близок к средней длине кадров (около 300 байт), передаваемых по Internet-соединениям;
  • пакеты длиной 1518 байт, соответствующие максимально возможной длине пакетов Ethernet и обычно используемые при передаче больших объемов данных.

Производительность на уровне характеристик физической среды передачи продемонстрировало только устройство E1200. Примечательно, что такое быстродействие поддерживалось для всех трех длин пакетов, причем ни один пакет не был утерян.

Стоит отметить незначительную разницу между теоретической максимальной скоростью передачи трафика в сети 10GE и значением, измеренным для E1200. Правда, это еще не означает, что продукт компании Force10 отбрасывал часть пакетов. Стандарт 10GE, который был утвержден институтом IEEE в прошлом году, допускает расхождение в скоростях передачи до 3 тыс. пакетов в секунду (оно может быть обусловлено рассинхронизацией системных часов). В нашем случае различие оказалось намного меньшим.

Скорость передачи коммутаторов производства Avaya, Foundry и HP составила около 80% от максимальной (рис. 1).

Рис. 1. Производительность в сети 10GE

Сотрудники Avaya и Foundry сообщили нам, что все дело в быстродействии коммутационной матрицы (около 8 Гбит/с), которая и ограничивает скорость передачи пакетов. В действительности производительность матрицы в изделии FastIron 400 была несколько большей, чем упомянутые 8 Гбит/с. Возможно, именно по этой причине при обработке коротких (64-байтовых) пакетов скорость передачи составила не 80, а около 86% физической пропускной способности линии.

При включении всех четырех 10-гигабитных интерфейсов коммутатор фирмы Foundry передавал 256- и 1518-байтовые пакеты со скоростями 5,5 и 5 Гбит/с соответственно. Когда же в коммутаторе оставалось только два интерфейса, его производительность возрастала. Однако самое любопытное заключается в том, что пропускная способность коммутатора Hewlett-Packard составила около 8 Гбит/с для пакетов всех трех размеров, хотя FastIron 400 и ProCurve 9300m, по сути, одно и то же аппаратное устройство. Объяснение данному факту, по-видимому, стоит искать в различии версий ПО, устанавливаемого на изделия Foundry и HP.

Результаты, продемонстрированные продуктом фирмы Avaya, невозможно напрямую сопоставить с параметрами других моделей. Дело в том, что коммутатор Cajun P882 MultiService Switch имел только два 10-гигабитных интерфейса, а такая конфигурация обычно создает меньшую нагрузку на сеть, чем полносвязная четырехпортовая конфигурация, в которой тестировались остальные устройства.

Тактика задержки

Для многих пользователей, особенно работающих с приложениями реального времени, задержка и уровень ее нестабильности — более важные характеристики коммутатора, нежели его пропускная способность. Для коммутаторов Gigabit Ethernet задержка передачи обычно составляет десятки микросекунд. Логично было предположить, что при работе с 10-гигабитными устройствами этот параметр уменьшится на порядок, но на практике все оказалось иначе.

При скоростях передачи, присущих сетям 10GE, задержка вообще должна стремиться к нулю. Представим себе идеальный коммутатор, который сам по себе никакой задержки в процесс передачи не вносит. В случае пропускной способности 10 Гбит/с обработка 64-байтового пакета занимает 67 нс, а 1518-байтового — 1,23 мкс. Эти цифры намного ниже пороговых величин, при которых наличие задержки начинает сказываться на быстродействии приложений.

Однако в реальной сети задержка оказывается гораздо большей (рис. 2). При сетевой нагрузке на уровне 10% максимальной (когда на величину задержки влияет только сам процесс передачи, а сторонние причины, вроде размещения пакетов в очереди, отсутствуют) мы обнаружили, что средняя задержка коммутатора FastIron 400 (при передаче 64-байтовых пакетов) составляет 4,3 мкс, а Cajun P882 (при передаче 1518-байтовых пакетов) — уже 46 мкс. Конечно, ни одно из полученных значений даже не приближается к тому порогу, когда задержку начинают «чувствовать» приложения, но все же следует учитывать два обстоятельства.

Во-первых, задержки суммируются, поэтому при передаче трафика в сетевой среде со множеством коммутаторов общая задержка может достичь того миллисекундного диапазона значений, в котором она становится весьма нежелательной. Во-вторых, нет никаких веских причин «застревания» пакета в 10-гигабитном коммутаторе даже на 30-50 мкс. Например, устройство E1200 фирмы Force10 при обработке 64-байтовых пакетов привносит задержку 31,9 мкс, тогда как за это время оно могло бы поместить в буфер 46 таких пакетов.

Представители Force10 сообщили, что программное обеспечение, установленное на коммутаторе E1200 на время тестирования, оптимизировано для минимизации задержки при значительных сетевых нагрузках. Если верить их заверениям, поставляемая заказчикам версия 4.1.1 этого ПО позволяет уменьшить задержку вдвое путем соответствующей настройки конфигурации. К сожалению, у нас не было возможности убедиться в справедливости этих слов.

А наилучшие результаты в данном тесте продемонстрировали изделия Foundry и HP. Так, даже в самых неблагоприятных условиях — при передаче пакетов длиной 1518 байт — коммутатор Hewlett-Packard показал среднюю задержку 7,6 мкс. Прогресс по сравнению с характеристиками коммутаторов для сетей Gigabit Ethernet не столь уж значительный, но это заметно лучше, чем у других участников.

Для приложений пакетной передачи голоса или видео флуктуации задержки имеют еще большее значение, нежели сама задержка. Проведенные нами измерения подтвердили общую закономерность: чем меньше задержка, тем ниже амплитуда ее флуктуаций. Другими словами, лидерами в данном тесте опять оказались изделия Foundry и HP. В обоих случаях указанная амплитуда не превышала 100 нс, то есть оказалась на пределе чувствительности нашего измерительного оборудования.

Справедливости ради отметим, что флуктуации задержки передачи у коммутатора Cajun P882 также были на уровне сотен наносекунд. Это по крайней мере на четыре порядка меньше тех значений, при которых неравномерность задержки начинает «ощущаться» приложениями.

А вот амплитуда флуктуаций задержки у коммутатора E1200 была самой высокой — около 25% средней величины самой задержки. Надо ли говорить, что такое «гуляние» задержки в обе стороны от ее среднего значения довольно существенно. Сама по себе подобная неравномерность не отразится на производительности приложений, но при наличии в сети нескольких коммутаторов производства Force10 кумулятивный эффект даст о себе знать.

Строители опорных сетей

Поскольку развертывание «чистых» сетей 10GE — дело отдаленного будущего, при тестировании коммутаторов мы акцентировались на той роли, в которой они будут использоваться в первую очередь. Другими словами, мы испытывали их как средства агрегации трафика, поступающего по нескольким гигабитным соединениям.

Тестовая среда для изучения процесса объединения отдельных каналов состояла из двух устройств, соединенных линией 10GE. Каждый из коммутаторов имел по одному 10-гигабитному интерфейсу. Кроме того, с помощью генератора пакетов на его интерфейсы Gigabit Ethernet подавался трафик от 510 виртуальных хостов. В общей сложности через линию 10GE трафиком обменивались 10,2 тыс. виртуальных хостов — довольно обычная цифра для магистральной части крупной корпоративной сети.

Нет ничего удивительного в том, что тестовая конфигурация практически совпала с той, которая обычно применяется для тестирования средств агрегации трафика. Собственно, мы и хотели выяснить, сулит ли переход на технологию 10GE какие-либо преимущества — по сравнению с традиционной схемой агрегации соединений, при использовании которой особенно заметными становятся высокая доля потерянных пакетов и значительная латентность.

Производительность, задержка и степень ее неравномерности по-прежнему измерялись для пакетов трех типов (64, 256 и 1518 байт), генерировавшихся устройствами SmartBits. Однако конфигурация тестовой среды была частично связанной: десять интерфейсов Gigabit Ethernet на одном коммутаторе через опорную сеть 10GE обменивались трафиком с десятью такими же интерфейсами на другом.

И опять победителем стал коммутатор E1200, передававший трафик с физической скоростью линии независимо от длины пакета. Суммарная пропускная способность составила 30 млн пакетов/с, при этом ни один пакет не был потерян (рис. 3).

Рис. 3. Пропускная способность при передаче трафика Gigabit Ethernet по магистрали 10GE

Результаты, продемонстрированные коммутаторами от Foundry и HP, вполне соответствуют производительности их коммутационных матриц (около 8 Гбит/с). При этом FastIron 400 обрабатывал 256- и 1518-байтовые пакеты намного быстрее, чем в первых тестах на производительность, в которых были задействованы все четыре 10-гигабитных интерфейса.

Замыкало «шествие» устройство Cajun P552 фирмы Avaya: его пропускная способность всякий раз оказывалась ниже 5 Гбит/с. Представители компании объяснили это особенностям архитектуры коммутационной матрицы, которая испытывает перегрузки, когда уровень использования ресурсов коммутатора превышает 60% от максимального значения. Собственно, 60% от 8 Гбит/с как раз и дают немногим меньше 5 Гбит/с.

Так или иначе, но пока производители могут быть довольны: значения суммарной пропускной способности оказались заметно выше тех, что были получены нами пару лет назад в ходе тестирования технологии агрегации каналов. Тогда в наихудших условиях пропускная способность падала до 10% физической полосы пропускания. Если же вместо агрегации задействовать 10-гигабитный канал, пропускная способность будет по крайней мере не ниже 20% его физической пропускной способности. Сказанное означает, что высокоскоростная физическая линия намного лучше виртуальной.

Меньше ожидания

Замена агрегации на 10-гигабитную линию сулит очевидный выигрыш и в плане задержки передачи. В прошлом тесте агрегация каналов порой приводила к 13-кратному возрастанию общей задержки. При использовании одного высокоскоростного физического канала задержка и амплитуда ее флуктуаций возрастали незначительно (по сравнению с «чистой» сетью 10GE).

Для всех трех размеров пакетов наименьшие значения задержки и амплитуды ее флуктуаций оказались у коммутаторов производства Foundry и HP (рис. 4). Даже в самых неблагоприятных условиях FastIron 400 вносил в передачу 1518-байтовых пакетов среднюю задержку 32,3 мкс, которую не заметит ни одно приложение. И хотя это значение выше тех 7,6 мкс, которые мы зафиксировали в тесте с «чистой» сетью 10GE, не следует забывать, что в данном случае данные обрабатывались двумя коммутаторами и в общей сложности передавались через две пары интерфейсов. Сравнение будет более корректным, если 32,3 мкс вы предварительно разделите на два.

Задержка и амплитуда ее флуктуаций оказались значительно большими у коммутаторов Avaya и Force10, причем особенно «отличилась» модель E1200. В наихудших условиях это устройство передавало 1518-байтовые пакеты с задержкой 90,9 мкс, тогда как коммутатор Cajun P882 дал среднюю задержку 76,4 мкс. Сами по себе эти цифры не должны вызывать беспокойства. По сути дела, они соответствуют диапазону величин, характерных для некоторых коммутаторов Gigabit Ethernet. Собственно, параметры гигабитных интерфейсов и определяли результаты тестирования в данном случае. С другой стороны, низкая задержка, продемонстрированная продуктами Foundry и HP, показывает, что инженерам Avaya и Force10 еще есть над чем поработать. (См. характеристики коммутаторов)

Быстрое восстановление

При выборе «тяжелого» сетевого оборудования многие пользователи на первое место в списке приоритетов ставят его способность быстро восстанавливать работоспособность после сбоев. В этой связи мы включили в программу испытаний специальный тест, в ходе которого измерялось время перенаправления трафика в резервное соединение после повреждения основного.

Два экземпляра коммутаторов соединялись двумя линиями 10GE, и мы просили сотрудников компаний-производителей сконфигурировать средства маршрутизации трафика по протоколу Open Shortest Path First (OSPF) таким образом, что одно соединение оказывалось основным, а второе — резервным. Направив трафик в гигабитный интерфейс на первом коммутаторе, мы хотели убедиться, что он передается на второй коммутатор по основному соединению. Затем соединение искусственно разрывалось, что заставляло коммутатор перенаправлять трафик во вторую линию. Указанный процесс отнимал некоторое время, и часть пакетов неизбежно терялась. Время восстановления передачи определялось по числу потерянных пакетов.

Компания Force10 снабдила свой продукт достаточным числом 10-гигабитных интерфейсов для повторения данного теста с двумя парами высокоскоростных линий, объединенных в соответствии со стандартом агрегации каналов 802.3ad. Изделие Avaya в испытании не участвовало, поскольку нам не были предоставлены необходимые для его проведения четыре карты 10GE. Продукты остальных фирм тестировались при разрыве только одного соединения опорной сети.

Производительность, продемонстрированная в данном тесте коммутатором фирмы Force10, — еще одно свидетельство прогресса, достигнутого сетевой индустрией. Раньше в случае применения технологии агрегации каналов время восстановления передачи увеличивалось примерно на порядок. С коммутатором E1200 ситуация оказалась прямо противоположной: как только мы попробовали сформировать множественные опорные каналы, время восстановления сократилось с 474 до 384 мс. Время, которое потребовалось коммутаторам FastIron 400 и ProCurve 9300m для перевода трафика на резервный канал, было еще меньшим — 237 и 313 мс соответственно.( См. Результаты тестирования)

Поддержка QoS

Когда дело дошло до присвоения параметров QoS различным видам трафика, передаваемого по сети 10GE, оказалось, что ни одно из устройств не соответствует установленным нами требованиям. Тем не менее и на этот раз результаты были заметно лучшими, чем в предыдущих тестах с агрегацией каналов.

Сценарий, управлявший работой генераторов/анализаторов трафика SmartBits, остался прежним. Генераторы формировали трафик трех разных классов, а коммутаторы должны были выполнить четыре операции.

Во-первых, от них требовалось пометить трафик, используя различные коды Diffserv. Наличие меток проверялось путем выборочного захвата и дешифровки пакетов. Изменение меток для маркирования отдельных пакетов весьма полезно с точки зрения сетевой безопасности: без этой операции пользователи могли бы помечать весь трафик как имеющий наивысший приоритет.

Во-вторых, даже в условиях перегрузки трафик с самым высоким приоритетом должен был передаваться без потерь. В-третьих, производителям предстояло так настроить конфигурацию своих устройств, чтобы низкоприоритетный трафик никогда не занимал больше 2 Гбит/с в суммарной полосе пропускания. Подобная мера особенно важна, когда нужно контролировать интенсивность передачи трафика с невысоким приоритетом, например, потокового видео.

Наконец, в-четвертых, оставшуюся часть полосы пропускания коммутаторы должны были выделять трафику со средним приоритетом. Теоретически конфигурация тестовой сети позволяла передавать такой трафик без потерь пакетов, но на практике с этой задачей справились не все устройства.

Выбор победителя в данном тесте напрямую зависит от того, какое из этих требований вы считаете наиболее важным. Если решающую роль играет способность обрабатывать без потерь высокоприоритетные пакеты, лидером окажется Cajun P882 производства Avaya. При необходимости соблюдения всех четырех требований, да еще для всех классов трафика пальму первенства стоило бы отдать коммутатору E1200 фирмы Force10. Хотя указанное устройство отбросило незначительную часть высокоприоритетных пакетов, оно наилучшим образом придерживалось заданных скоростей передачи для всех трех классов трафика (рис. 5).

Рис. 5. Поддержка QoS для трех классов трафика

Результаты, продемонстрированные коммутаторами Foundry и HP, оказались не столь однозначными. Обработка трафика с высоким и средним приоритетом не вызвала у нас особых нареканий, а вот в управлении передачей низкоприоритетных пакетов этим устройствам явно недостает гибкости. Инженеры, делегированные этими компаниями для сопровождения тестирования, признались, что коммутаторы неспособны ограничивать полосу пропускания, которая выделяется трафику одного класса, если одновременно приходится минимизировать потери пакетов других классов.

В целом же итоги данного теста можно оценить как положительные. Средства поддержки QoS в опорном 10-гигабитном канале работали надежнее, чем при объединении нескольких соединений Gigabit Ethernet. В предыдущих тестах с агрегацией каналов доля отброшенных пакетов с высоким приоритетом была недопустимо большой. Кроме того, коммутаторы не выдерживали заданные соотношения между долями полосы пропускания, выделяемой трафику разных классов.

Сказать, что первое поколение коммутаторов для 10-гигабитных сетей Ethernet прекрасно справляется со своими задачами, было бы большим преувеличением. Для многих устройств предельная пропускная способность пока составляет 8, но никак не 10 Гбит/с. И даже в том случае, когда транспортировка данных может быть выполнена с физической скоростью среды передачи, платой за это становится увеличение задержки и ее неравномерности.

И все же, несмотря на выявленные проблемы, приходится признать: новые коммутаторы 10GE имеют несомненные преимущества перед устройствами предыдущей генерации. Они гораздо дальше ушли от пресловутого гигабитного барьера, чем альтернативные решения на основе агрегации нескольких каналов.


Процедура тестирования

Каждую компанию мы просили предоставить для тестирования два коммутатора, четыре адаптера 10GE и 24 адаптера Gigabit Ethernet. Продолжительность всех тестов составляла 60 с, а временное разрешение анализаторов SmartBits равнялось 100 нс.

В тестах с соединениями 10GE компаниям предлагалось присвоить различные адреса IP-подсетей каждому из четырех 10-гигабитных интерфейсов, которыми было оснащено одно устройство. Модули SmartBits имитировали поступление трафика на каждый интерфейс от 510 виртуальных узлов в полносвязной конфигурации (то есть трафик адресовался всем остальным интерфейсам). Средняя величина задержки передачи определялась при 10-процентной сетевой нагрузке.

Методика теста с опорным 10-гигабитным каналом была аналогичной, но в нем участвовали уже два устройства, каждое из которых имело один интерфейс 10GE и десять интерфейсов Gigabit Ethernet. Маршрутизация трафика соответствовала частично связанной конфигурации (по терминологии спецификации RFC 2889): трафик, поступавший на одно устройство, был адресован всем интерфейсам другого, и наоборот.

В тесте на перемаршрутизацию трафика в обход разорванного соединения участвовали два коммутатора каждой компании, оснащенных двумя интерфейсами 10GE и одним интерфейсом Gigabit Ethernet. После настройки конфигурации соединений на гигабитный интерфейс подавался поток 64-байтовых пакетов с интенсивностью 100 тыс. пакетов/с. Другими словами, передача каждого пакета занимала 10 мкс. Примерно через 10 с после начала теста мы физически разрывали основное соединение и определяли время восстановления передачи по числу потерянных пакетов.

Конфигурация каждого коммутатора в тесте на поддержку QoS включала в себя один интерфейс 10GE (для формирования высокоскоростного соединения) и 12 интерфейсов Gigabit Ethernet. Поскольку на каждый из 24 гигабитных интерфейсов подавались 128-байтовые пакеты со скоростью физической линии, в частично связанной конфигурации это создавало избыточную нагрузку на коммутаторы в соотношении 12:10. Интенсивности различных классов трафика соотносились между собой как 1:4:7. При повторном запуске теста (для проверки, не резервируют ли коммутаторы фиксированную полосу пропускания для высокоприоритетного трафика) интенсивность трафика со средним и низким приоритетом была выбрана в пропорции 9:3.

Здравый смысл QoS

Один из способов получить высокие баллы в тесте на поддержку качества сервиса состоял в выделении фиксированной доли суммарной полосы пропускания исключительно под высокоприоритетный трафик. Этот подход аналогичен алгоритму временного уплотнения каналов, который давно получил прописку в сетях передачи данных. При его использовании зарезервированная часть полосы пропускания остается недоступной для других видов трафика, даже когда пакеты с высоким приоритетом вообще отсутствуют в сети.

Дабы помешать производителям прибегнуть к этой уловке, мы запустили тест повторно, присвоив передававшимся пакетам только низкий и средний приоритет. Конфигурацию же устройств в промежутке между первым и вторым тестами изменять было нельзя.

По идее, во втором тесте трафик со средним приоритетом должен был занять и ту часть полосы пропускания, которая ранее использовалась для передачи высокоприоритетных пакетов. Именно это в большинстве случаев и происходило, хотя, строго говоря, ни один из коммутаторов не смог распределить суммарную полосу пропускания между двумя классами трафика в строгом соответствии с заданным нами соотношением. В целом результаты оказались явно лучшими, чем в случае применения традиционной схемы агрегации каналов.