Computerworld, США

Событием, которое подхлестнуло новую волну интереса к InfiniBand, стало приобретение корпорацией Cisco Systems производителя коммутаторов Topspin Communications

Ряд производителей, предлагающих технологию на базе спецификации высокоскоростных сетевых соединений InfiniBand, представили свои новые продукты, тем самым открывая новые перспективы для технологии, которая несколько лет назад считалась грозным конкурентом Fibre Channel.

Engenio Information Technologies выпускает массив хранения, изначально опирающийся на InfiniBand и поддерживающий скорость передачи данных 10 Гбит/с. Контроллер Engenio 6498 и система хранения Engenio 6498 формируют связь на базе InfiniBand с созданным компанией ранее массивом Model 6998 на базе Fibre Channel

Компания Engenio Information Technologies выпускает, по словам ее представителей, первый в отрасли массив хранения, изначально опирающийся на InfiniBand и поддерживающий скорость передачи данных 10 Гбит/с, что более чем вдвое быстрее показателей массивов на основе Fibre Channel. Контроллер Engenio 6498 и система хранения Engenio 6498 формируют связь на базе InfiniBand с созданным компанией ранее массивом Model 6998 на базе Fibre Channel. В этом массиве используются или высокопроизводительные диски Fibre Channel, или высокоемкие диски на базе Serial ATA.

Компания Engenio, дочернее предприятие корпорации LSI Logic, продает свои продукты через корпорацию Silicon Graphics. SGI на основе базового компонента InfiniBand компании Engenio создает сквозную структуру InfiniBand для обмена между сервером и памятью, используя контроллерные узлы компании YottaYotta. Массив SGI InfiniteStorage TP9700 стоит, в зависимости от конфигурации, от 103-550 долл.

Компания Isilon Systems представила новый кластер подключаемых к сети устройств хранения, которые используют InfiniBand в качестве магистрали для увеличения емкости своей системы до 250 Тбайт с поддержкой единой файловой системы. Система Isilon IQ 6000i создана на основе монтируемых в стойку узлов емкостью 6 Тбайт, каждый из которых имеет высоту 2U.

Как правило, технология InfiniBand применяется для организации связи, предусматривающей интенсивный обмен и, как следствие, требующей большой полосы пропускания. Некоторые коммутаторы InfiniBand, такие как решение компании SilverStorm Technologies, уже поддерживают пропускную способность до 20 Гбит/с, значительно опережая Fibre Channel и Ethernet, имеющие пропускную способность 4 Гбит/с и 1 Гбит/с соответственно. Система Engenio сейчас? поддер?жи??вает скорость передачи дан?ных 10 Гбит/с, и в перспективе компания намерена увеличить эту скорость до 20 Гбит/с.

Технология InfiniBand была предложена как значительно более быстрая технология поддержки сетевых соединений между сервером и системой хранения, обеспечивающая скорость передачи до 10 Гбит/с. Но особого распространения InfiniBand так и не получила из-за существенных ограничений на расстояние. По словам аналитиков, она оправдывает себя на расстоянии до 100 м.

Сейчас InfiniBand постепенно снова набирает популярность в качестве технологии магистрали для кластеров серверов и систем хранения, а в центрах обработки данных — в качестве основы для соединений между серверами и системами хранения. По мнению Тони Асаро, аналитика Enterprise Strategy Group, самым знаменательным событием, которое подхлестнуло новую волну интереса к InfiniBand, стало приобретение в апреле корпорацией Cisco Systems производителя коммутаторов Topspin Communications за 250 млн. долл.

В прошлом году корпорация IBM подписала пятилетнее соглашение с компанией Topspin на перепродажу ее коммутаторов InfiniBand.

«В 2001 году мы готовили демонстрацию по InfiniBand и именно тогда поняли, что у этой технологии есть немалые перспективы, хотя в то время казалось, что ее уже пора придать забвению», — отметил Стив Гарднер, директор по маркетингу продуктов компании Engenio.

Такие компании, как SilverStorm (ранее называвшаяся InfiniCon Systems), уже выпускали коммутаторы InfiniBand. В 2002 году SilverStorm представила коммутатор, который действовал как серверное межсоединение, позволявшее снизить внешние взаимодействия серверных кластеров высокой готовности на 50%.

В начале ноября SilverStorm объявила о намерении представить в первой половине 2006 года коммутатор с полосой пропускания 20 Гбит/с.


Что такое Infiniband

Технология Infiniband (IB, www.infinibandta.org) разрабатывалась как открытое решение, которое могло бы заменить собой все остальные сетевые технологии в самых разных областях. Это касалось и общеупотребительных технологий локальных сетей (все виды Ethernet и сети хранения, в частности Fibre Channel), и специализированных кластерных сетей (Myrinet, SCI и т. д.), и даже подсоединения устройств ввода/вывода в персональных компьютерах в качестве возможной замены шин PCI и каналов ввода/вывода, таких как SCSI. Кроме того, IB-инфраструктура могла бы использоваться для объединения в единое целое фрагментов, использующих разные технологии.

Подобное открытое решение предполагало участие многих независимых производителей, в первую очередь, производителей аппаратуры (как это происходит, скажем, с Ethernet-платами, коммутаторами и т. д.), что способствовало бы снижению цен. Очень важной была и поддержка IB со стороны корпорации Intel, которая вроде бы собиралась выпускать микросхемы для IB и планировала поддержку IB в своих наборах микросхем. Поговаривали, что в Intel конкурировали две идеи. Те, кто отвечал за серверное направление, поддерживали IB, а отвечавшие за настольные ПК — PCI-Express, находя IB слишком сложной. Победили вторые: PCI-Express поддерживается в новых чипсетах, а от собственной реализации IB в Intel отказалась.

Несомненно, на развитии IB это сказалось крайне отрицательно; кроме «веса» Intel, массовое применение в ПК, несомненно, способствовало бы удешевлению продуктов IB. Критики IB говорят, что сегодня аппаратуру IB производит только компания Mellanox, а потому IB все еще не стала открытым решением, предлагаемым многими. В этом есть доля истины: Mellanox — ветеран рынка IB, ее решения поставляются уже несколько лет, ее микросхемы применяются и в IB-устройствах других фирм. И при подготовке данной статьи были использованы аппаратные и программные средства от Mellanox. К сентябрю 2005 года в мире было поставлено IB-оборудование на более чем 1 млн. портов, при том что Mellanox к весне нынешнего года поставила свыше 0,5 млн. портов.

Впрочем, аппаратуру IB поставляют еще несколько компаний, в том числе Infinicon, TopSpin и Voltaire. Собственные микросхемы InfiniBlue разработала и IBM. Микросхема IB-коммутатора от Agilent, которую, по-видимому, применяет InfiniCon, имеет задержку всего 110 нс — вдвое меньше, чем у Mellanox. Если же сравнить, например, стоимость адаптеров IB 4x (скорость 10 Гбит/с), с адаптерами 10 Gigabit Ethernet от той же Intel, то IB оказывается дешевле, в то время как «пользовательские» свойства IB, в том числе и производительность, явно выше.

Преимуществом IB перед специализированными, ориентированными на высокопроизводительные кластеры сетевыми технологиями является ее универсальность. Oracle, например, поддерживает IB в своих кластерных решениях. Год назад HP и Oracle установили рекорд производительности на тестах TPC-H (для баз данных емкостью 1 Тбайт) в IB-кластере на базе ProLiant DL585 с использованием СУБД Oracle 10g в среде Linux. Летом 2005 года IBM достигла рекордных показателей для TPC-H (для баз данных емкостью 3 Тбайт) в среде DB2 и SuSE Linux Enterprise Server 9 в IB-кластере на базе xSeries 346. При этом достигнутая стоимость одной транзакции оказалась почти вдвое ниже, чем у ближайших конкурентов (www.tpc.org).

Из статьи Михаила Кузьминского «Практика Infiniband» («Открытые системы», 2005, № 11).

Поделитесь материалом с коллегами и друзьями