В этом и следующем выпуске Испытательного стенда речь пойдет о том, как преодолеть преграды на пути к производительности в 100 Мбит/с.


СРЕДА ТЕСТИРОВАНИЯ
КАК ПРОХОДИЛО ТЕСТИРОВАНИЕ
3COM 3C595-TX
COGENT EM110
FASTNIC 100 EISA КОМПАНИИ GRAND JUNCTON
INTEL ETHEREXPRESS PRO/100 SMART ADAPTER
NATIONAL SEMICONDUCTOR NI7000
GRAND JUNCTION FASTHUB 100
ВАША ЛИ ЭТА СКОРОСТЬ?

Жизнь не стоит на месте. Автострады, еще недавно бывшие пустыми, сегодня страдают от транспортных пробок. Так и Ethernet, пропускная способность которого долгое время считалась почти неограниченной, теперь с трудом справляется с информационными потоками. Менеджеры сетей - регулировщики на дорогах данных - во избежание заторов вынуждены искать новые пути. Какой путь выберете вы? Снимите ограничение на скорость или проложите еще несколько полос?

Чтобы помочь вам найти ответы на эти вопросы, мы решили подготовить серию выпусков Испытательного стенда, посвященных имеющимся на сегодняшний день решениям. В данном выпуске будут рассмотрены несколько продуктов Ethernet 100BaseT. Мы тестировали сетевые платы компаний 3Com (Санта-Клара, шт. Калифорния), Cogent Data Technologies (Фрайдей-Харбор, шт. Вашингтон), Grand Junction Networks (Фремонт, шт. Калифорния), Intel и National Semiconductor (Санта-Клара, шт. Калифорния), а также 16-портовый 100BaseT-концентратор (повторитель) FastHub 100 компании Grand Junction.

Рынок продуктов для 100BaseT весьма и весьма разнообразен, однако, чтобы закончить работу над этим выпуском Испытательного стенда за разумное время, мы решили ограничиться тестированием довольно узкого круга продуктов. Узкого, но все же достаточного для сравнения предлагаемых разными поставщиками продуктов, дающего представление о том, как эти продукты взаимодействуют друг с другом. Проведенное тестирование опиралось на изложенную ниже методику.

СРЕДА ТЕСТИРОВАНИЯ

В качестве концентратора во всех тестах использовался FastHub 100 компании Grand Junction, а файловым сервером служил компьютер Manhattan P 5090 компании AST (Ирвин, шт. Калифорния) с тактовой частотой 90Мгц, процессором Pentium и шинами PCI и EISA. На сервере была установлена операционная система NetWare 4.1, Manhattan имел 32 Мбайт памяти с обнаружением и исправлением ошибок ЕСС, а также два диска на 1 ГБайт в зеркальной конфигурации.

В качестве клиентов использовались семь компьютеров: Compaq DeskPro 575 (75 Мгц, процессор Pentium, шины PCI и ISA), 486/66ST (66 Мгц, 486 процессор и шина EISA) от Hewlett-Packard (Пало-Альто, шт. Калифорния), VEISA компании ALR (Ирвин, шт. Калифорния) (еще одна машина с 486 процессором и шиной EISA) и четыре компьютера Vectra VL2 компании Hewlett-Packard (50Мгц, процессор 486DX2, шина ISA).

На всех клиентах были установлены MS-DOS 6.2 или 6.21 и Windows for Workgroups 3.11 (DOS использовался только для тестирования производительности). На всех машинах-клиентах устанавливались виртуальные загружаемые модули (Virtual Loadable Modules, VLM) версии 1.2 компании Novell. На сервер с CD-ROM вначале установили операционную систему NetWare 4.1, а затем добавили исправления из 410pt1.exe, а служба каталогов Directory Services была обновлена до версии 6/22/95 (обновления можно получить в форуме NetWire по CompuServe или в узле WWW компании Novell по адресу: http://www.novell.com.

Мы долго думали, устанавливать на клиентах NetWare VLM или отдать предпочтение более старой клиентской оболочке NetWare NETX. Нам не хотелось устанавливать VLM по причине кэширования данных на клиенте: при кэшировании создается впечатление, что сетевые платы передают по сети больше данных, чем на самом деле.

Мы отдавали себе отчет, что VLM использует по умолчанию протокол передачи пакетов, скорость передачи данных в котором увеличивается за счет отправки до 64 пакетов, без ожидания очередного пакета с запросом от принимающей станции на другом конце. Мы считаем, что применение этого протокола ни в коей мере не ставит под сомнение результаты тестирования. Наоборот, если протокол увеличивает производительность сети, то это замечательно и такое увеличение производительности стоит измерить.

Кэширование также создает впечатление повышенной производительности сети, но данные при этом по сети не передаются. Если кэширование увеличивает реальную производительность, это замечательно, но сеть здесь ни при чем: хвалу должен получать тот, кто ее заслуживает.

В конце концов было решено использовать VLM, но отключить кэширование (для этого нам пришлось вставить инструкции CACHE BUFFERS = 0 и CACHE WRITES = OFF в раздел NetWare DOS Request файла NET.CFG - конфигурационного файла VLM).

Мы сохранили подразумеваемое значение размера "окна" чтения (число пакетов, посылаемое между пакетами с запросом) при передаче пакетов, равное 16. Исключение составили только четыре сетевые платы ISA компании National Semiconductor, использованные на машинах HP Vectra VL2 (почему для последнего клиента данное значение было выбрано равным 3, станет понятно чуть позже).

Следующие в списке кандидатов на тестирование - продукты для 100VG-AnyLAN, и в нашей лаборатории оказалось несколько из них. Мы установили HPJ2577A (сетевую плату для 10BaseT/100VG-AnyLAN EISA) компании HP в один из слотов сервера и сконфигурировали ее как плату для Ethernet 10BaseT. Мы подключили ее к 12-портовому концентратору 10BaseT, LAB"s Asante 1012. Концентратор, в свою очередь, был подключен к сети издательства Miller Freeman (в частности, оно издает LAN Magazine), состоящей из более чем 30 серверов по всей территории США. Одной из задач данного тестирования было исследование взаимодействия технологий на 100 Мбит/с с прежними технологиями.

Все тестируемые сетевые платы, а также концентратор Grand Junction FastHub 100 относятся к группе 100BaseTX, а значит, они требуют проводки EIA/TIA Категории 5 по стандарту 568. Поэтому файловый сервер и клиент были подключены к FastHub посредством кабеля Категории 5.

КАК ПРОХОДИЛО ТЕСТИРОВАНИЕ

При тестировании сетевых плат мы использовали тест Perform3 1.61 компании Novell для одного или нескольких клиентов. Тест позволяет выбрать многократно размер файла, записать файл укзанного размера на сервер и считывать этот файл в течение заданного времени. По окончании тестирования - тест продолжался 12 секунд - Perform3 определяет объем переданных данных в килобайтах, затем делит результат на число секунд и получает скорость передачи данных в Кбайт/с. После этого Perform3 переходит к тестированию следующего файла, размер которого увеличивается на заданное приращение.

На практике по сетям передаются файлы самых разных размеров. Поэтому мы указали широкий диапазон размеров файлов от 4,096 байт до 61,440 байт с шагом 4,096 байт, что составляет 15 тестов. Perform3 провел тестирование для файлов всех заданных размеров. В результате была получена скорость передачи файлов каждого конкретного размера (в Кбайт/с), а также максимальная и средняя скорость (для файлов всех размеров). Мы перевели результаты Perform3 из Кбайт/с в Мбит/с, поделив их на 125 (число, возникшее при умножении результата на 8 для получения Кбит/с и последующего деления на 1000 для перехода к Мбит/с).

При тестировании производительности мы выгружали локальный сетевой драйвер сетевой платы HP, с целью изолировать сеть-100BaseT от остальной сети Miller Freeman. Таким образом, был исключен посторонний трафик.

Тесты с одним клиентом проводились с установкой одинаковых плат на файловом сервере и клиенте. Например, при тестировании Cogent EM110 мы установили EM110 на сервере и на клиенте Compaq DeskPro 575. Единственным исключением стала плата Grand Junction FastNIC 100 EISA. Так как DeskPro 575 представляет собой PCI/ISA-систему, установить на ней карту EISA не удалось; пришлось использовать DeskPro XL 560 - PCI/EISA-машину с процессором Pentium с тактовой частотой 60 Мгц (последняя является близким аналогом DeskPro 575).

Picture 1 (1x1)

Рисунок 1.
Тестирование сетевых плат на тесте Perform3 компании Novell. При этом размеры файлов варьировались от 4096 байт до 61440 байт. На рисунке изображены результаты тестирования, а также коэффициент использования процессора файлового сервера.

На Рис. 1 показаны результаты тестирования PCI-платы 3C595-TX компании 3Com для одного клиента. Средняя пропускная способность составила 71.7 Мбит/с. Снижение пропускной способности в случае небольших файлов типично для большинства сетевых плат. На рисунке также изображен коэффициент использования процессора файлового сервера.

Picture 2 (1x1)

Рисунок 2.
В ходе тестирования с одним клиентом - данный тест демонстрирует работу сетевой платы на клиентской рабочей станции - плата 3C595-TX компании 3Com показала самую высокую максимальную и среднюю пропускную способность.

Мы не будем приводить иллюстрации результатов тестирования всех сетевых плат. Ограничимся Рис. 2, отображающим итоги тестирования сетевых карт для одного клиента, и Рис. 3 с итогами тестирования для нескольких клиентов. На предлагаемых нами рисунках показаны как максимальная, так и средняя пропускная способность по результатам всех 15 тестов. Поскольку почти во всех сетях встречаются файлы самого разного объема, мы посчитали ненужным сосредотачиваться на производительности файлов какого-либо определенного размера: куда более важным показателем при сравнении сетевых плат является средняя пропускная способность.

Picture 3 (1x1)

Рисунок 3.
Тестирование c несколькими клиентами показывает, какой объем данных может передавать один файловый сервер группе из семи клиентских станций. Этот тест демонстрирует прежде всего, насколько эффективно сетевая плата работает на сервере.

При тестировании с несколькими клиентами клиент 1 собирает результаты со всех клиентов и выдает совокупную пропускную способность (т.е. сумму пропускных способностей всех клиентов для каждого размера файла), а также максимальную и среднюю пропускную способность.

Тесты с несколькими клиентами дают совокупную пропускную способность и, следовательно, демонстрируют способность сетевой карты файлового сервера перекачивать значительные объемы данных с сервера и на сервер. Все тесты проводились с одним и тем же набором из семи клиентов, менялись только сетевые платы на файловом сервере. Клиент 1 - Compaq DeskPro 575 с платой 3Com 3C595-TX, клиент 2 - Hewlett-Packard 486/66ST, EISA-машина с 486 процессором, с сетевой платой Grand Junction FastNIC 100 EISA, клиент 3 - ALR VEISA также с сетевой платой для EISA Grand Junction FastNIC 100. Оставшиеся 4 клиента представляли собой Hewlett-Packard Vectra VL2 с ISA-сетевой картой NI7000 компании National Semiconductor.

В ходе тестирования мы определяли использование процессора файлового сервера путем слежения за статистикой. Статистические данные выводились модулем MONITOR.NLM на консоли файлового сервера. Так как использование процессора часто радикальным образом меняется, значения записывались примерно раз в секунду и составляли, таким образом, выборку из 8-10 значений за каждый 12-секундный тест. После чего рассчитывалось принимаемое в качестве результата среднее значение. Так как использование процессора - величина часто и быстро меняющаяся, мы округлили результаты до целых, чтобы у читателей не создалось ложного впечатления высокой точности экспериментов.

3COM 3C595-TX

PCI-плата Fast Etherlink III компании 3Com может работать в режимах 10 Мбит/с и 100 Мбит/с. Кроме того, она автоматически определяет скорость сети и настраивается на эту скорость.

Установка 3C595-TX на DeskPro не вызвала никаких затруднений. В руководстве, поставляемом с картой, утверждается, что она может функционировать как в управляющих, так и в неуправляющих слотах, хотя наивысшая производительность достигается в управляющих слотах.

Мы вставили сетевую плату в один из PCI-слотов DeskPro и включили питание. У встроенного программного обеспечения и DeskPro PCI не возникло проблем с идентификацией и автоматическим конфигурированием 3C595. Мы запустили программу настройки PCI от DeskPro (аналог конфигурационной утилите EISA, в системах EISA), чтобы посмотреть, какие параметры согласовали DeskPro и сетевая карта компании 3Com, и обнаружили, что используется управляющий слот. Инсталляционное программное обеспечение компании 3Com автоматически установило драйвер сетевой платы и отредактировало файлы CONFIG.SYS, AUTOEXEC.BAT и NET.CFG.

Установка карты на сервер оказалась не менее простой. После того как AST Manhattan выбрал корректную конфигурацию для PCI-карты, мы запустили конфигурационную утилиту EISA для просмотра установленных параметров и программу диагностики 3C595, чтобы убедиться в правильности конфигурации платы. Добавление необходимых команд на сервере свелось к включению питания и загрузке программы INETCFG, вызываемой из утилиты INSTALL для NetWare, и затем выбору соответствующего драйвера LAN для платы. Хотя команды инициализации карты могут быть вставлены непосредственно в AUTOEXEC.BAT, использование утилиты INETCFG помогает избегать конфликтов с идентификацией благодаря проверке наличных сетевых номеров перед привязкой протокола к карте.

Из Рис. 2 следует, что плата 3C595-TX превзошла своих конкурентов в средней пропускной способности на одноклиентном тесте с результатом 71.7 Мбит/с. Причем процессор использовался на 60% - это вторая по величине цифра.

На Рис. 3 приведены результаты тестирования 3C595-TX с семью клиентами. Средняя пропускная способность в 81.9Мбит/с опять оказалась лучшей, однако конкуренты отстали совсем не на много. В данном случае процессор использовался на 95% - самый высокий показатель в этом выпуске Испытательного стенда.

Следующее обстоятельство достойно особого внимания. Плата 3Com клиента 1 выполняла львиную долю работы при тесте с несколькими клиентами; ее средняя пропускная способность составила 50.8 Мбит/с против 81.9 Мбит/с у всех семи клиентов. Это еще раз подтверждает тот факт, что для получения наилучших результатов необходимо использовать одинаковые платы на сервере и на клиенте. (По счастливой для 3Com случайности на клиенте 1 была установлена сетевая плата 3C595-TX. Когда же для тестирования мы установили другую плату 3C595-TX на файловом сервере, на клиенте 1 и на сервере оказались одинаковые сетевые платы).

COGENT EM110

EM110, как и большинство тестируемых плат, представляет собой двухскоростную карту 10/100 Мбит/с, автоматически наслаивающуюся на скорость сети. Она базируется на шине PCI и, как указано в документации, работает только в управляющих PCI-слотах. Таким образом, EM110 не дает такой свободы для маневра, что 3C595-TX. Тем не менее, установка и на сервере, и на клиенте прошла без проблем. Процесс инсталляции клиента ODI не столь автоматизирован, как у 3Com, но все же он достаточно прост.

При тестировании с одним клиентом плата EM110 показала второй результат средней пропускной способности - 62.8 Мбит/с, но процессор использовался при этом лишь на 20%.

По результатам тестирования с несколькими клиентами EM110 при установке в качестве сетевой карты на сервере показала среднюю пропускную способность 78.1 Мбит/с. Это четвертый результат, однако первая тройка оторвалась не очень далеко.

Более того, можно считать, что EM110 дала остальным фору при тестировании с несколькими клиентами, так как ни на одном из клиентов не стояла карта компании Cogent. Если бы не это обстоятельство, первая тройка могла бы выглядеть совсем по-другому. (Еще до начала тестирования мы решили, что в тестах с несколькими клиентами будут использоваться одни и те же семь клиентов).

Во время тестирования клиент 1, где установлена сетевая плата компании 3Com, показал среднюю пропускную способность 12 Мбит/с, что составило 15% от совокупной. Это справедливо - одна седьмая составляет 14%, а не львиную, как в предыдущем случае, долю.

EM110 блеснул в использовании процессора файлового сервера - всего 29% при семи работающих клиентах. Только одному конкуренту - Smart Adapter компании Intel - удалось немного приблизиться к этому результату.

FASTNIC 100 EISA КОМПАНИИ GRAND JUNCTON

FastNIC 100 - только плата на 100 Мбит/с. При установке FastNIC 100, как и любой другой платы EISA, после включения компьютер выдает сообщение о том, что конфигурация EISA изменилась и больше не является корректной. Это значит, что нужно запустить конфигурационную утилиту EISA для переконфигурирования системы. FastNIC 100 может работать как в режиме управления шиной, так и с программируемым вводом/выводом, однако режим управления шиной доступен только для драйверов серверов. После настройки платы при помощи конфигурационной утилиты инсталляция драйверов прошла без заминок.

После всей шумихи, поднятой вокруг преимущества PCI над EISA в производительности, нам было очень интересно сравнить результаты тестирования FastNIC и остальных плат. Само собой, делать выводы о преимуществах шины PCI над EISA на базе результатов тестирования одной карты EISA и нескольких карт PCI нельзя. Но тем не менее, мы с нетерпением ждали результатов тестирования в надежде разглядеть хотя бы общие очертания реального положения вещей.

Результаты наводили на размышления... При тестировании с одним клиентом, когда сетевые платы Grand Junction были установлены и на сервере, и на клиенте, FastNIC достигла средней пропускной способности 27.7 Мбит/с - это где-то между половиной и третью производительности плат PCI. Причем использование процессора оказалось самым низким - 17%. Однако при тестировании с несколькими клиентами плата Grand Junction показала среднюю пропускную способность 80.5 Мбит/с и, таким образом, не отставала от основных конкурентов. Использование процессора файлового сервера подскочило аж до 94%.

В целом производительность FastNIC на сервере оказалась аналогичной производительности 3C595-TX, но плата компании 3Com показала значительно лучшие результаты в качестве клиента. Тот факт, что режим передачи с управлением шиной доступен только для серверных приложений, может объяснить скачок в производительности при тестировании с несколькими клиентами, однако это не объясняет значительного различия в использовании процессора.

Не забудьте, что при тестировании FastNIC с одним клиентом использовался другой компьютер. Все остальные сетевые платы проходили тестирование на одной и той же машине. Поэтому нельзя прямо сравнивать результаты FastNIC с результатами других плат. Неверно утверждать, что если приведенные здесь результаты на x% лучше или хуже, то FastNIC на x% быстрее или медленнее. Производительность двух компьютеров, использованных в качестве клиентов, отличается незначительно, но для получения достоверных результатов сравнения плат тестирование должно проводиться на совершенно одинаковом оборудовании. При тестировании с несколькими клиентами использовалось совершенно одинаковое оборудование, так что в этом случае результаты для FastNIC можно совершенно обоснованно сравнивать с результатами для других плат.

INTEL ETHEREXPRESS PRO/100 SMART ADAPTER

EtherExpress Pro/100 Smart Adapter использует процессор i960 RISC компании Intel для обработки пакетов, разгружая, таким образом, главный процессор сервера. Intel предлагает это решение как способ повышения пропускной способности сетевой платы и снижения использования процессора сервера.

Pro/100 Smart Adapter - плата для сервера; она поставляется только с драйверами серверов NetWare, так что нам не удалось протестировать ее на клиенте. Для этой карты мы проводили только тестирование с несколькими клиентами. Smart Adapter может работать в режиме как на 10 Мбит/с, так и на 100 Мбит/с; она автоматически определяет скорость сети и настраивается на эту скорость.

Установка не вызвала затруднений, а процесс конфигурирования почти полностью автоматизирован, как и для других тестируемых нами карт PCI. Благодаря специальному процессору и высокой интеллектуальности, плата Smart Adapter резервирует больший массив адресов памяти и большее количество ресурсов, чем другие платы, однако система без труда определелила корректную конфигурацию. Программа диагностики, прилагаемая к пакету, позволяет проверить правильность функционирования платы. По завершении остается установить драйверы NetWare, а это совсем просто.

При тестировании с несколькими клиентами Intel Smart Adapter показала среднюю пропускную способность 79.2 Мбит/с, заняв третье место и проиграв лидерам только по "фотофинишу". Использование процессора составило всего 36%.

NATIONAL SEMICONDUCTOR NI7000

National InfoMover 7000 10/100plus ISA Adapter (NI7000) была единственной тестируемой нами картой ISA. Как и большинство карт, которым посвящен этот выпуск Испытательного стенда, NI7000 может работать в режиме 10 Мбит/с и 100 Мбит/с, автоматически определять скорость сети и автоматически на нее настраиваться.

Большинство поставщиков, вероятно, предпочтут платы на 100 Мбит/с на базе шин PCI или EISA. Несмотря на то, что 32-разрядная шина ввода/вывода является наилучшим выбором для сетевой платы на 100 Мбит/с, компания National Semiconductor, видимо, сделала ставку на клиентов с обширным парком ISA-машин, которые хотят перейти к 100BaseT.

Если мы правильно поняли логику рассуждений компании National Semiconductor, эта стратегия весьма перспективна. У большинства компаний сегодня имеются самые разнообразные вычислительные платформы. Не так просто найти сеть, состоящую исключительно из PCI-машин. Даже шина EISA не имеет широкого распространения среди настольных компьютеров. Она популярна только на рынке серверов.

Для того чтобы 100BaseT добился такого же успеха, как и его предшественник 10BaseT, стандарт должен быть реализован на всем множестве платформ, используемых сегодня. До недавнего времени шина ISA, используемая на большинстве настольных компьютеров, представляла собой белое пятно на карте для решений100BaseT.

Мы не ждали, что NI7000 сможет тягаться с платами EISA и PCI. Нам хотелось выяснить, достаточна ли производительность NI7000 для того, чтобы пользователи ISA-компьютеров могли реально рассматривать возможность перехода к сети 100BaseT.

Как правило, конфигурация плат ISA требует куда большего количества ручной работы при установке нужного положения для переключателей и перемычек, чем конфигурирование плат PCI или EISA. Однако карта NI7000 отвечает технологии plug-and-play; она поставляется с конфигурационными файлами для определения характеристик платы в системах EISA. Программа инсталляции автоматически задает конфигурацию платы, включая аппаратные прерывания и адреса памяти, что исключает необходимость установки переключателей и перемычек вручную. В системах на базе EISA программа инсталляции должна запускаться перед конфигурационной утилитой EISA, так как неконфигурированная карта находится в состоянии "режим EISA отключен" до окончания работы программы инсталляции. У нас не возникло никаких проблем в процессе инсталляции и конфигурирования карты на сервере AST Manhattan на базе EISA.

В начале тестирования NI7000 мы получили странные результаты. На тестах с одним клиентом использование процессора было весьма значительным. Мы даже решили протестировать NI7000 на клиенте, когда вопреки всем правилам тестирования на сервере была установлена карта Intel Smart Adapter. В такой конфигурации использование процессора колебалось между 60% и 70%. Это было удивительно, учитывая, что Smart Adapter славится низким использованием процессора, что наши тесты и подтвердили во всех случаях. Во всех, кроме одного, когда на клиенте была установлена карта NI7000. Мы не могли в это поверить: как может выбор сетевой карты на клиенте повлиять на использование процессора на сервере?!

Алан Франк, соавтор настоящей статьи и редактор обзоров продуктов LAN Magazine, обсудил эту аномалию с Томом Хендерсоном, директором лаборатории Beach Labs из Индианаполиса и постоянным автором Испытательного стенда. По мнению Хендерсона, причина столь странных результатов заключалась в том, что клиент вступал в конфликт с сервером. Хотя ответ был довольно общим, он помог нам осознать, что клиент действительно может повлиять на производительность сервера.

Ситуация оказалась еще более любопытной, когда мы начали тестирование с семью клиентами; на четырех из них стояли платы National.

Система почти не работала. Наблюдая за диаграммой использования сети на передней панели Grand Junction FastHub, мы видели, с каким трудом идет процесс передачи файлов. Общая пропускная способность оказалась крайне низкой. Что-то явно было не в порядке.

Мы позвонили по горячей линии технической поддержки компании National Semiconductor и поговорили с представителем группы поддержки, который в конце концов связал нас с инженером из сетевого отделения компании, он-то и предложил установить размер окна пакетов, равный трем. (Это можно сделать, поместив соответствующую инструкцию PBURST READ WINDOW SIZE = 3 в файл NET.CFG).

Инженер дал нам дельный совет, оказавшийся бесценным: выполнение (или невыполнение) оператора, подобно вышеуказанному, можно определить посредством вызова VLM с ключом /v3. После загрузки VLM на экран будут построчно выводится сообщения о ходе работы системы. (Если выдается слишком много строк и вы не успеваете их прочитать, воспользуйтесь DOS-командой MORE, например VLM /V3 | MORE, по которой информация станет выводиться экран за экраном).

Когда размер окна чтения пакетов был изменен на 3, все встало на свои места и мы смогли провести обычное тестирование NI7000. Однако проблема высокого использования процессора так и не была решена. Возможно, она неразрешима.

В процессе тестирования NI7000 с одним клиентом показала среднюю пропускную способность 13.3 Мбит/с - значительно меньшую, чем платы PCI, и в два раза меньшую, чем плата EISA компании Grand Junction. При тестировании с несколькими клиентами пропускная способность выросла незначительно, достигнув 13.7 Мбит/с. Этот результат подтверждает, что шина ISA в сетевой плате не успевает поставлять данные для передачи.

Как и большинство ISA-плат, NI7000 не управляет шиной. Возможно, в этом заключается причина высокого использования процессора. На тесте с одним клиентом процессор в среднем использовался на 79% - настораживающая цифра, учитывая, что обслуживался только один клиент. Как ни странно, в тестах с несколькими клиентами эта цифра не выросла. Мы получили те же 79%. Здравый смысл подсказывает, что использование процессора при увеличении числа клиентов должно расти. А результаты данных тестов противоречат всякой логике. Единственное объяснение, которое нам удалось придумать, заключается в следующем: сервер получал примерно столько же данных от одного клиента, сколько от семи, поэтому нагрузка на процессор не возросла.

Пропускная способность NI7000 кажется ничтожной в сравнении с протестированными нами платами PCI и EISA. Однако давайте посмотрим на это под другим углом. В мире Ethernet 10BaseT необходимым атрибутом файловых серверов считаются шины PCI или EISA. Однако здесь мы имеем плату ISA, производительность которой превосходит производительность любой платы 10BaseT, вне зависимости от того, основаны они на шине ISA, EISA или PCI. Конечно, 10BaseT и 100BaseT - вещи несравнимые, но все равно в таком разрезе NI7000 выглядит вполне достойно.

GRAND JUNCTION FASTHUB 100

Этот концентратор использовался нами во всех тестах. Он представляет собой 16-портовый повторитель. У него нет агента управления сетью, но есть встроенный световой индикатор использования сети.

FastHub обычно монтируется в стандартную 19-дюймовую стойку, но может располагаться и на столе (как в наших тестах). На передней панели находится шестнадцать модульных разъемов RJ-45. Выключатель питания - сзади. (По нашему мнению, нет необходимости помещать выключатель питания на переднюю панель, так как концентратор после включения, вероятно, понадобится выключать лишь для того, чтобы выбросить после многих лет работы, либо для того, чтобы перенести в другое место).

FastHub блестяще работал со всеми сетевыми картами, которые мы тестировали. У нас не возникло никаких проблем с совместимостью. Это было то, что нужно: эффективно, ненавязчиво и беспрерывно.

ВАША ЛИ ЭТА СКОРОСТЬ?

Готовы ли вы к быстрому Ethernet? Наши тесты подтвердили, что получить пропускную способность на порядок выше, чем 10BaseT, вполне реально. Быстрый Ethernet - все еще новая технология, но ее стандарты уже сформировались. Наши тесты не выявили проблем совместимости между сетевыми платами различных поставщиков или между сетевыми картами и концентратором.

С другой стороны, вы можете считать, что различия в производительности двух одинаковых и двух разных сетевых плат - просто вопрос совместимости. Так, по нашему мнению, в мире 10BaseT имеет место аналогичная ситуация.

Оказалось, что сегменты сетей 10BaseT и 100BaseT легко сочетаются; однако простота совместимости в данном случае была обеспечена благодаря внутренней маршрутизации компании Novell. В среде, отличной от NetWare, для сочетания портов 10BaseT и 100BaseT вам могут потребоваться аппаратные маршрутизаторы или мосты с портами двух типов. Такие продукты пока редки, но в ближайшем будущем они должны появиться в больших количествах на волне новых продуктов для объединения быстрых сетей. Сейчас лучшим способом объединения миров 10BaseT и 100BaseT является коммутатор 10/100.


С Аланом Франком и Дэвидом Фоглем можно связаться по адресам в Internet: afrank@mfi.com и dfoglr@mfi.com, соответственно.