Даже небольшой исторический экскурс убеждает в парадоксальности путей прогресса в области ИТ. Бывает, популярная в последующем новация получает свой стартовый импульс в результате, казалось бы, совершенно случайных мутаций. С регулярностью повторяется практически одна и та же схема. Вначале по тем или иным причинам возникает «нечто» и до поры существует, не получая заметного признания. Со временем выясняется, что в той области, которой это самое «нечто» было адресовано, оно остается практически не востребовано. Но, как ни странно, неожиданный коммерческий успех приходит с совершенно иной, совсем неожиданной стороны.

Яркий пример — история создания Глобальной сети. Когда начинались работы над прообразом Internet, первопроходцы стремились, в конечном счете, соединить всего несколько университетов с отдаленной перспективой использования отработанных на прототипе принципов для военных коммуникаций. Никто не мог предположить, что в процессе этой работы рождается явление планетарного масштаба. Другой пример. Когда в Xerox PARC делали прототипы первых ПК, тоже никто не и предполагал, во что превратятся их потомки в будущем. Наконец, более близкий пример — судьба языка Java. Сейчас в это трудно поверить, но его автор Джеймс Гослинг никогда не занимался корпоративными системами. При официальном представлении языка в 1995 году высшее руководство Sun Microsystems не могло толком объяснить, зачем, собственно, нужен язык, созданный изначально для автоматизации бытовых приборов. Поначалу раскрутка Java казалась чисто маркетинговым приемом; на первых шагах он использовался только для оживления Web-страниц, для создания игрушек. Многие из его первых поклонников успели в нем разочароваться. Это потом Java оказался одним из важнейших инструментов создания корпоративных информационных систем.

Похожие метаморфозы происходят в последние годы, если не месяцы, с архитектурой InfiniBand. Она зародилась в качестве средства для совершенствования ввода/вывода в классических (монолитных) серверах, а оказалась в гораздо большей степени востребована их прямыми конкурентами, серверами-лезвиями.

Problematic Computer Interface

История InfiniBand началась с того, что несколько лет назад стало очевидно: высокопроизводительным серверам необходимы мощные альтернативы существующим системам ввода/вывода. Революционные изменения происходили везде, а в этой сфере наблюдалась очевидная стагнация, имя которой — PCI. Более чем за десять лет своего существования шина PCI практически полностью монополизировала ввод/вывод, стала непременным атрибутом архитектуры компьютеров всех уровней, начиная от самых простых настольных моделей и вплоть до мощных корпоративных серверов.

Но десять лет по технологическим меркам — почти эпоха. Шина PCI появилась на фоне символов своего времени наподобие 66-мегагерцевых процессоров, технологий на 0,8 микрон и сетей с пропускной способностью 10 Мбайт/с. С тех пор много воды утекло. Почти полностью утратили актуальность большинство шинных архитектур, в том числе AT/ISA, EISA, HP-PB, MCA, VME, NuBus, Sbus, TurboChannel, не говоря уже о родоначальнике всех шин UNIBUS. Это и не удивительно, ведь их пропускная способность, не превосходящая нескольких мегабайт в секунду, существенно уступала шине PCI, работающей на частоте 133 МГц, которая может быть повышена до 266 МГц, а перспективе превысит 1 ГГц. Поэтому она живет и здравствует, однако и ее царствованию есть предел. Пропускная способность в версии PCI-X находится в диапазоне 6,4-8,5 Гбайт/с; сегодня, когда получают распространение интерфейсы Ultra320 SCSI, Gigabit Ethernet, Fiber Channel, служащие для подключения систем хранения и позволяющие образовывать кластеры, этого уже явно недостаточно. Не случайно получила хождение шуточная расшифровка аббревиатуры PCI — Problematic Computer Interface. Кроме очевидных ограничений по производительности выявились врожденные функциональные недостатки (о них ниже), поэтому многие организации стали предлагать альтернативные решения, которыми можно было бы полностью или частично заменить PCI.

Работа над замещающими PCI проектами началась в конце 90-х годов. На сегодняшний день насчитывается более полусотни разных технологий, среди которых наиболее известны InfiniBand, RapidIO, HyperTransport, StarFabric; есть и множество других. Спектр альтернативных решений очень широк, некоторые конкурируют между собой, другие дополняют друг друга, к тому же все они различаются по степени готовности к выпуску в производство. Как обычно, поначалу во взглядах на перспективные продукты преобладал радикализм; нередко то или иное решение предлагали как безоговорочную «замену» PCI. Поиск подобной замены в этой области очень напоминает события, связанные с интерфейсом SCSI. В обоих случаях в проверенную временем технологию были вложены большие средства, поэтому она не может быть просто так отброшена, в итоге она не уходит одномоментно, а продолжает совершенствоваться, оставаясь в игре, претенденты же обычно либо как-то подстраиваются под нее, либо подыскивают себе собственные ниши. Вот и сейчас, особенно на фоне спада производства в области высоких технологий, во взглядах на будущее PCI возобладал умеренный консерватизм, признающий право на существование и за новыми, и за старыми подходами. В какой-то момент показалось, что острота интереса к альтернативным архитектурам ввода/вывода вообще спала. Может быть, так бы оно и произошло, если бы не появление серверов-лезвий, которые нежданно могут стать главным стимулом для развития InfiniBand. Это обстоятельство выделяет архитектуру из ряда близких к ней, отводя ей особое место среди альтернатив PCI.

Происхождение InfiniBand

Архитектура InfiniBand появилась в результате слияния двух параллельных разработок: Next Generation I/O (NGIO) и Future I/O (FIO). Корни NGIO находятся в корпорации Intel, где в 1996 году группа инженеров начала работу над технологией ввода/вывода на основе архитектуры виртуального интерфейса (Virtual Interface, VI). Перед ними стояла двоякая задача. Во-первых, построить последовательный интерфейс, отделенный от связки процессор — оперативная память. Во-вторых, обеспечить посредством этого интерфейса взаимодействие процессов, принадлежащих приложениям, работающим на разных серверах.

Началось все с неудачной попытки просто сериализовать PCI, но вскоре пришло понимание того требуется не просто улучшение, а радикально новое решение. В итоге возник проект NGIO, поддержанный Dell Computer, Hitachi, Intel, NEC, Fujitsu Siemens и Sun Microsystems и еще доброй сотней компаний.

Параллельно с этим еще одной группой компаний (в их число входили IBM, Compaq, Adaptec, 3Com, Cisco и Hewlett-Packard) велась работа над аналогичным проектом FIO. Некоторые производители даже входили в оба лагеря, поскольку проекты NGIO и FIO имели между собой много общего, но были ориентированы на разные применения. NGIO предназначался для рынка стандартных серверов, выпускаемых в больших количествах, а FIO — для платформ более высокого корпоративного класса. Оба проекта заимствовали многое из известных технологий, они использовали коммутаторы, аналоги каналов из мэйнфреймов, архитектуру виртуального интерфейса, взаимодействие параллельных процессов (Inter-Process Communication). В начале 1999 года обе спецификации были обнародованы, а уже осенью произошло слияние. В октябре возникла ассоциация InfiniBand Trade Association. Результаты слияния оказались лучше, чем можно было предположить; получилась не просто сумма, выборка лучшего из альтернативных компонентов. В октябре 2000 года была опубликована InfiniBand Architecture Specification r1.0, в подготовке которой участвовало 150 специалистов из трех десятков компаний; в июне 2001 года появилась версия r1.0.a.

InfiniBand и монолитные серверы

В первом приближении представлялось, что InfiniBand повлияет только на архитектуру традиционных серверов. Сравним существующие серверы с гипотетическими, которые можно было бы построить на основе InfiniBand.

Усредненная архитектура современного сервера представлена на рис. 1a. Назовем его монолитным в отличие от сервера, собранного из лезвий, о котором речь пойдет ниже. Вне зависимости от того, как именно организовано взаимодействие между процессорами и памятью, для связи с периферией обычно служит мост PCI bus bridge, к которому подключаются платы адаптеров. Они взаимодействуют с сетевыми платами, адаптерами для сетей хранения и другой периферией. Здесь PCI выступает в роли промежуточного звена; в ее основу положен известный метод прямого доступа в память (direct memory access, DMA), смысл которого в том, что каждой плате PCI резервируется область в оперативной памяти. Плата сама осуществляет перемещение данных между этой областью и внешними устройствами. Возможности ввода/вывода развиваются посредством дополнительных мостов host-to-PCI и PCI-to-PCI.

В результате архитектура использующего PCI сервера получается простой, однако за простоту приходится расплачиваться следующими недостатками:

  • между областями памяти, принадлежащими разным контроллерам, возможна интерференция;
  • процессор при работе с этими областями памяти ограничен в своем быстродействии производительностью шины;
  • для управления устройствами требуются сложные драйверы;
  • любая шина имеет ограничения по числу подключаемых устройств и скорости передачи.

Другая группа недостатков относится к обеспечению надежности, готовности и обслуживаемости (reliability, availability, serviceability — RAS). Эти недостатки есть производное от самой шинной идеи.

  • Надежность. Шина имеет более 100 контактов, нарушение хотя бы одного из них приводит к выходу шины из строя.
  • Готовность. Параллельная шина затрудняет резервирование; выход из строя одного из адаптеров на шине в состоянии привести к выходу из строя всей шины.
  • Обслуживаемость. Несмотря на существование отдельных решений, обеспечивающих горячую замену, в целом PCI к ней не приспособлена.

Архитектура IfiniBand служит той же самой посреднической цели. Она связывает блок «оперативная память плюс процессор» с внешней памятью, сетями, другими периферийными устройствами. Принципиальное отличие IfiniBand от PCI заключается в замене общей шины коммутирующей решеткой (switching fabric). В простейшем виде, как показано на рис. 1b, коммутатор подключается к одному серверу. Однако этим его возможности не ограничиваются — и в этом сила данного подхода. Работой коммутатора управляет менеджер, который обнаруживает физическую топологию подключения, назначает локальные идентификаторы и осуществляет маршрутизацию между узлами. Он же управляет и изменениями, такими, например, как добавление или отключение узлов. Главное же в том, что архитектура IfiniBand обеспечивает организацию передачи данных между сервером и периферией не по общей шине, а по выделенным каналам. Это обеспечивает ей совершенно новое качество. Вместо жестко организованного доступа посредством DMA в фиксированные области разделяемой памяти — надежный механизм передачи сообщений, который «отвязывает» сервер от периферии. Такое решение открывает неограниченную возможность кластеризации и масштабирования. Сравним показатели RAS.

  • Надежность. Меньшее число контактов (в минимальной версии их всего четыре) уменьшает вероятность неисправности.
  • Готовность. Как любая сетевая структура, архитектура IfiniBand допускает организацию альтернативных маршрутов; поэтому выход из строя канала не приводит к выходу из строя всей системы.
  • Обслуживаемость. Устройства, предназначенные для использования в среде IfiniBand, проектируются в расчете на горячую замену.

В итоге архитектуры, построенные на основе IfiniBand, отличаются большей гибкостью, масштабируемостью и лучшими показателями RAS.

Технические характеристики InfiniBand

InfiniBand представляет собой коммутируемое соединение «точка-точка», которое может быть реализовано непосредственно на платах, устанавливаемых в сервере, или вынесено вне стойки в виде отдельного устройства (out-of-box). В качестве физического канала используется четырехпроводная жила, обеспечивающая скорость передачи данных 2,5 Гбайт/с в обоих направлениях. Архитектура организована как многоуровневая, она включает 4 аппаратных уровня и верхние уровни, реализуемые программно. В каждом физическом канале можно организовать множество виртуальных каналов, присвоив им разные приоритеты.

Для повышения скорости могут использоваться 4-кратные и 12-кратные версии InfiniBand, в которых используется соответственно 16 и 48 проводов, а скорости передачи данных по ним равны 10 Гбайт/с и 30 Гбайт/с.

Совокупность протоколов нижнего уровня обеспечивает процедуру передачи данных посредством коммутируемых пакетов почти так же, как это сделано в других коммутируемых сетях. Специфика заключается в делении всей сети на локальные подсети. Перечислим четыре нижних уровня протоколов InfiniBand.

  • На физическом уровне (physical layer) определены электрические и механические характеристики, в том числе оптоволоконные и медные кабели, разъемы, параметры, задающие свойства горячей замены.
  • На уровне связей (link layer) определены параметры передаваемых пакетов, операции, связывающие точку с точкой, особенности коммутации в локальной подсети.
  • На сетевом уровне (network layer) определены правила маршрутизации пакетов между подсетями, внутри подсети этот уровень не требуется.
  • Транспортный уровень (transport layer) обеспечивает сборку пакетов в сообщение, мультиплексирование каналов и транспортные службы.

Сеть InfiniBand строится из элементов четырех типов.

  • Конечный узел (endnode) подключается к сети одним из двух адаптеров: адаптер хоста (Host Channel Adapter, HCA) или адаптер цели (Target Channel Adapter, TCA). Адаптеры HCA обеспечивают интерфейс с компьютером, они поддерживают программную систему команд, но при этом не образуют API-интерфейс для операционной системы, а только определяют операции, которые разработчики ОС должны включить в API. Адаптеры TCA намного проще, их функциональность ограничены тем, что требуется для управления устройством.
  • Коммутатор (switch), являющийся основным рабочим компонентом коммутирующей фабрики InfiniBand, имеет несколько портов и переправляет пакеты между ними.
  • Маршрутизатор (router) осуществляет передачу пакетов между сетями.
  • Менеджер подсети (subnet manager) осуществляет конфигурирование и контроль работы подсети.

InfiniBand и другие

Архитектура InfiniBand — одна из примерно полусотни известных современных технологий объединения компонентов вычислительных систем. Для всех них в большей или меньшей степени характерен отход от шинной идеологии к идеологии последовательной передачи данных, масштабируемой посредством увеличения числа проводников. Казалось бы, странно: количество проводов уменьшается с сотен до единиц, а скорость растет. Заметный прирост производительности при отказе от шины объясняется, в том числе, и общей закономерностью, действующей в отношении всех типов устройств, которые можно реализовать по синхронной или асинхронной схеме [1]. Любая шина, как и все современные процессоры, по определению синхронна, поэтому ее производительность ограничивается частотой, с которой подаются тактовые стробы, синхронизирующие отдельные сигналы по отдельным проводам. Следовательно, совокупная пропускная способность шины ограничена не физическими возможностями канала, а механизмом синхронизации. Шина работает «тупо», ее программное управление рассчитано на ожидание последнего из множества параллельных каналов; по сути, она постоянно пребывает в процессе ожидания. Напротив, последовательный канал асинхронен, он может использовать все физические возможности, которыми располагает носитель информации.

В отличие от большинства других известных решений InfiniBand обладает очень широким потенциальным спектром применений, который распространяется от SAN в смысле System Area Network до SAN в смысле Storage Area Network, а может быть затрагивает и локальные сети. Пока, конечно же, основной областью применения является создание кластерных конфигураций и подключение к ним внешней памяти. Сравним эту архитектуру с популярными альтернативными решениями.

InfiniBand и Fiber Channel

Архитектура Fiber Channel предназначена для обеспечения высокоскоростного обмена данными с накопителями (сейчас 2 Гбайт/с, в перспективе выше). Она стала основой для построения сетей хранения. InfiniBand по своим функциональным возможностям механизмы превосходит Fibre Channel, образуя его «сверхмножество» (super set). По сравнению с Fiber Channel архитектура InfiniBand обладает рядом преимуществ.

  • Гибкость. Архитектура Fibre Channel построена в предположении, что для передачи данных служит отдельная сеть хранения, а управление ею осуществляется с использованием локальной сети Ethernet. Архитектура InfiniBand предусматривает необходимый механизм для интеграции разных типов трафиков; ей достаточно одного соединения или одной "коммуникационной фабрики".
  • Качество обслуживания (quality of service, QoS). Наличие в InfiniBand виртуальных линий, контроля прохождения данных из конца в конец и система приоритетов обеспечивает более высокий уровень качества обслуживания; например, резервное копирование может выполняться в фоновом режиме, когда заканчиваются операции с более высоким приоритетом.
  • RAS. Архитектура InfiniBand разработана с нуля, с учетом современных требований к параметрам RAS со стороны Internet и центров обработки данных. Во-первых, в нее включены циклические проверки, использующие избыточность передачи (cyclical redundancy check, CRC). Во-вторых, есть контроль соединений и датаграмм; за счет избыточности соединений можно выбирать альтернативные маршруты, если обнаруживается ошибка. Другими словами, InfiniBand имеет способность к самоизлечению.
InfiniBand и Ethernet

Ethernet пронизывает практически все современные информационные системы. Она требует популярных протоколов TCP/IP для передачи данных и для установки программного обеспечения, что обеспечивает колоссальную гибкость. Но есть в этом и оборотная сторона. Во-первых, выполнение всего стека протоколов сильно нагружает процессоры, кроме того, для TCP характерны медленно стартующие алгоритмы, ненадежные службы и целый ряд дополнительных сложностей, генезис которых кроется в природе такой неуправляемой среды, как Internet. По сравнению с Ethernet архитектура InfiniBand лучше адаптирована для использования в качестве основы для корпоративных систем; она выигрывает в надежности, производительности, а также дает возможность строить кластерные конфигурации.

InfiniBand и Storage over IP

Технология Storage over IP используется в качестве обобщенного варианта для iSCSI (SCSI поверх IP), FCIP (туннелирование Fibre Channel поверх IP) и iFCP (отображение устройств Fibre Channel на IP). InfiniBand можно сравнивать только с iSCSI. Технологии FCIP и iFCP более традиционны; это, в конечном счете, перевод параллельного интерфейса SCSI в последовательный с последующей передачей по IP. Они с InfiniBand находятся в разных технических нишах. Опора iSCSI на Ethernet обнаруживает те же самые проблемы с безопасностью, большей вычислительной нагрузкой и RAS.

InfiniBand и внутренние магистрали

Очень быстро развиваются своего рода микросети «на уровне системной платы»; наибольшую известность приобрели несколько подходов.

  • 3GIO (Third Generation I/O) разрабатывается консорциумом Arapahoe Work Group, основными участниками которого являются Intel, HP и Microsoft.
  • RapidIO предложен компанией Motorola весной 2000 года.
  • HyperTransport активно продвигается главным конкурентом Intel, компанией AMD.

Достоверно распределить будущие сферы влияния между проектируемыми технологиями межсоединений непросто. Они появятся в коммерческом исполнении через пару лет, и тогда обстановка будет яснее. Пока можно сказать, что технология RapidIO в большей степени ориентирована на встроенные системы, что не удивительно для Motorola. Магистраль HyperTransport реализует высокоскоростное соединение микросхем на системной плате и будет в максимальной степени адаптирована к 64-разрядному процессору AMD Hummer. Подход 3GIO выглядит наиболее универсальным.

В отличие от InfiniBand магистраль 3GIO предназначена для замены PCI исключительно внутри корпуса (так называемое решение in-box). 3GIO по функциональности и месту в системе остается локальной шиной, которая точно так же, как и PCI, отображает фрагменты оперативной памяти. Главное отличие 3GIO от PCI связано с тем, что это последовательное высокоскоростное соединение между микросхемами на плате, использующее небольшое число контактов. На первых порах этот тип соединения должен обеспечить скорость передачи 2,5 Гбит/с; в последующем она должна возрасти до 10 Гбит/с. Существенное отличие от InfiniBand заключается в том, что 3GIO обеспечивает соединение «точка-точка» на уровне системной платы, ему достаточно реализовывать два нижних уровня семиуровневой модели OSI.

Каждая из перечисленных технологий имеет свое время и место. PCI останется практичным решением для персональных компьютеров еще на многие годы; Fiber Channel — единственное на сегодняшний день готовое решение для создания сетей хранения; о роли Ethernet и говорить нечего, а HyperTransport, RapidIO и 3GIO ждут своего часа, но ни одна из них не является всеобъемлющей. Сегодня только InfiniBand обладает достаточной универсальностью.

Лезвия, серверы и не только

С появлением центров обработки данных критически важными характеристиками стали занимаемые помещения и потребляемая энергия. Возникло стремление размещать как можно больше серверов в пересчете на единицу объема или площади. В итоге появились тонкие и ультратонкие серверы и серверные приставки, толщина которых обычно измеряется в «юнитах» (например, 1U, 2U или 4U; U = 1,75 дюйма). По существу, эти серверы — миниатюрные исполнения обычного стоечного сервера, полностью повторяющие его архитектуру; все они имеют собственную дисковую память, поэтому их называют серверами, имеющими состояние (stateful). При упаковке их в стойку получаются довольно необычные сооружения, содержащие десятки процессоров и сотни жестких дисков, они сложны в управлении, выделяют много тепла. Инженерный опыт подсказывает, использование устройств без собственной внешней памяти, не обладающих хранимым состоянием (stateless), может оказаться эффективнее с точки зрения централизации управления и разделяемого использования общих ресурсов (различные типы внешней памяти и другие устройства ввода/вывода). Первыми образцами серверов без собственной внешней памяти стали «лезвия» (blade). Появились, но еще не получили широкого распространения серверы в формате «кирпича» (brick). Подобный сервер представляет собой небольшую плату, содержащую только процессор и оперативную память. В стандартном шасси высотой 2U удается разместить 16 или даже 24 подобных серверов. В редких случаях на лезвиях размещают и диски; такова, например, продукция компании RLX Technologies, но это исключение, подтверждающее общее правило.

Назвать бездисковое лезвие сервером в полном смысле этого слова нельзя, поскольку в отличие от ультратонких серверов он не обладает автономной функциональностью. Законченным устройством может быть сборка таких серверов, включающая системы питания, охлаждения, диагностики, но, прежде всего, обладающая средствами доступа к внешней памяти. Насколько привлекательной ни была бы идея выделения вычислительных компонентов в легкозаменяемые серверы, не имеющие состояния, она останется непродуктивной без соответствующих средств доступа к внешней памяти. Рассматривались возможные решения этой задачи, в том числе, шинные варианты VME и Compact PCI, а также Gigabit Ethernet. Два первых вскоре отпали, поскольку не обеспечивали достаточной производительности и имели ограничения по масштабированию и надежности. В последнем случае может быть использован стандарт 10 Gigabit Ethernet с аппаратной реализацией механизма TCP Offload Engine, но на рынке технология этого типа появится не ранее конца 2003 года. В итоге прекрасная по замыслу идея серверов-лезвий, возможно, оставалась бы на уровне бумажных проектов или мелкосерийных изделий, если бы не появление архитектуры InfiniBand, которая, как оказалось, на 100% подходит для создания функционально полных систем из простых лезвий.

Архитектура InfiniBand позволяет построить вычислительную систему на принципах System Area Network. Такое устройство действительно очень красиво. К сожалению, когда сейчас говорят и пишут о подобном подходе к построению вычислительной машины, почему-то забывают, что один из самых надежных в мире компьютеров Tandem строился именно по такому принципу. Разумеется, в нем были собственные уникальные средства для построения системной сети, однако смысл объединения лезвий остается тем же самым — создать сетевой кластер из однородных вычислительных модулей.

Идею создания системной сети на основе InfiniBand из серверов-лезвий одной из первых предложила небольшая компания Mellanox, входящая в число ведущих разработчиков данной архитектуры. Предлагаемая ею компоновка конструктивных устройств выглядит следующим образом. Коммутатор, выполненный в формате лезвия, устанавливается в то же шасси, что и серверы; коммутатор имеет порты для подключения к нему серверов средствами задней панели шасси и порты для подключения внешних устройств. В совокупности получается «пространство», состоящее из 16 серверов на одном шасси, неограниченно расширяемое серверами в той же или в соседних стойках. Оно формируется системой коммутаторов, допускающей произвольную кластеризацию лезвий: можно выбрать тот ее вариант, который в наибольшей степени удовлетворяет конкретной цели. Ее можно нацелить на повышение производительности или на повышение надежности, как угодно. Может создаваться один единый вычислительный образ (single compute image) или множество образов (multiple compute image).

Вообще же можно говорить о формировании нового направления, которое получило название вычислений, основанных на лезвиях (blade based computing, BBC). Оно предполагает возможность сборки конфигурации центра обработки данных или сервера из тех коммуникационных и вычислительных компонентов, которые нужны пользователю. Подобные подходы к проектированию обычно сравнивают с конструктором Лего, они действительно позволяют собирать из ограниченного набора элементов самые разнообразные конструкции. В основе BBC лежит концепция коммутационной решетки ввода/вывода (I/O fabric), обеспечивающей разделение доступа к ресурсам ввода/вывода (I/O sharing). Ее удается реализовать благодаря тому, что InfiniBand позволяет устанавливать множественные (many to many) соединения между процессорами и периферийными устройствами, в то время как прежние решения допускали только соединения «один к одному» (one to one). Скажем, несколько серверов-лезвий могут использовать одно лезвие Fibre Channel. Подобный подход ведет к сокращению потребных аппаратных и программных ресурсов, кроме того, упрощает управление, поскольку не нужно несколько копий одного и того же программного обеспечения, например, драйверов устройств. Со временем должны появиться еще и лезвия внешней памяти (storage blade), а также реализации технологий подключаемых к сети устройств хранения и сетей хранения, которые смогут заменить традиционные системы хранения данных.

Сегодня поставляемое Mellanox оборудование позволяет объединять в одной системе до 128 узлов. Теоретически же их количество может возрасти до тысяч; предел определяется свойствами коммутаторов и величиной задержки. Из этого множества узлов можно формировать ту конфигурацию, которая необходима по функциональным требованиям. Это может система с массовым параллелизмом, отказоустойчивый кластер и т.д.

Перспективы

Вот-вот разразится новая серверная война. Аналитики предсказывают, что спустя три-четыре года до четверти этого сегмента займут серверы-лезвия. Происходит явление, типичное для высокотехнологичного рынка явление, определяемое формулой «маленькие пожирают больших». Активность проявляют не только мелкие компании, но и многие ведущие производители, например, Dell, HP, IBM, Sun и др. Но сейчас, когда стали более или менее ясны аппаратные перспективы, слово за производителями программных продуктов, прежде всего СУБД. На февральском форуме Intel Developer Forum об этом говорили представители IBM, Oracle и Microsoft. В целом же в области InfiniBand и серверов-лезвий все так интересно и динамично развивается, что следует рекомендовать не упускать ее из внимания — как говорится, stay tuned. n

Литература

[1]. Л. Черняк, Асинхронные процессоры. «Открытые системы», 2002, № 4