.

В мае 2005 года аналитическая компания Taneja Group опубликовала отчет, в котором, в частности, утверждалось: «Был период, когда виртуализация стала одним из ругательных слов для специалистов, работающих в индустрии хранения данных. Едва ли кто-то из них забудет появившиеся несколько лет назад радужные прогнозы относительно будущего виртуализации. Однако ажиотаж... оставил после себя лишь разочарование. Отчасти произошедшее можно объяснить незрелостью восхвалявшихся технологий, их неспособностью справляться с нагрузками корпоративных систем, но не менее важно то, что производители не смогли соотнести решение задач виртуализации с реальными проблемами пользователей».

Волна за волной

Если признать первой волной виртуализации не состоявшийся три-четыре года назад прорыв в развитии технологий, связанных с организацией сетей хранения (storage area network, SAN), то вполне справедливо считать ее второй волной возврат к этой теме в 2004-2005 годы. Суть «первой волны» с достаточной полнотой была отражена в апрельском выпуске «Открытых систем» за 2002 год — правда, без той доли скепсиса, которая появилась впоследствии. Сегодня многие представления того времени кажутся чрезвычайно наивными, но понятно, что тогда еще не «замылились» первые яркие впечатления и с недавно появившимися сетями хранения, в то время связывались большие ожидания. Казалось, именно они станут столбовой дорогой виртуализации систем хранения данных, необходимость в которой не вызывала сомнений. Уверенность в потенциале идей SAN позволяла думать, что из трех существовавших подходов к виртуализации этих систем (на уровне серверов, накопителей и сетей) именно сетевая виртуализация является наиболее перспективной.

Естественно, появление новой сетевой технологии спровоцировало активное обсуждение вопросов, связанных с разработкой открытых стандартов SAN. В 1997 году, вслед за появлением первых предпосылок к созданию сетей хранения, была образована отраслевая ассоциация Storage Network Industry Association (SNIA). В 2001 году ассоциация опубликовала предложения по созданию модели Shared Storage Mode (рис. 1). По замыслу данная модель должна была стать для систем хранения чем-то аналогичным семиуровневой модели ISO/OSI применительно к открытым системам. Эта модель описывает набор сетевых архитектур SAN, распределение функций по компонентам, интерфейсы между взаимодействующими уровнями. Особое внимание было уделено управлению, вследствие чего была выдвинута инициатива Storage Management Initiative (SMI), а также предпринято формальное описание интерфейсов управления SMI-S.

Рис. 1. Модель Shared Storage Mode, предложенная SNIA

Уверенность в перспективности избранного направления была столь велика, что три-четыре года назад в основном обсуждались преимущества и недостатки альтернативных виртуализационных решений, реализуемых средствами сетей хранения, — симметричного пула хранения (In-Band SAN Virtualization) и асимметричного пула (Out-of-Band SAN Virtualization). Напомним, что симметричное решение предполагает расположение устройства виртуализации сети хранения внутри потока ввода/вывода, то есть распределение ресурсов накопителей непосредственно в потоке данных, синхронно с ним. Напротив, асимметричное решение строится с использованием устройства виртуализации, расположенного вне сети хранения, следствием чего является асинхронность по отношению к потоку ввода/вывода.

Многие воззрения времен «первой волны» не устарели и поныне, но они остались нереализованными вплоть до возникновения «второй волны». Поэтому возвращаться к ним не имеет смысла (тем же, кому они неизвестны, стоит обратиться к упомянутому выше выпуску «Открытых систем»). «Первая волна», стимулированная небольшими компаниями, оказалась недостаточно результативной по ряду причини, но в основном ее спад был предопределен монополизацией рынка систем хранения крайне ограниченным количеством производителей. Ожидавшееся принятие многоуровневой модели не состоялось потому, что производители эти не были заинтересованы в разработке открытых стандартов. Иными словами, общая ситуация в этой области радикально отличалась от ситуации, возникшей при разработке открытых систем.

Монополизация (а точнее — ограниченность круга поставщиков) не является чьим-то злым умыслом, а обусловлена спецификой рынка и потребностями крупных компаний, являющихся основными потребителями систем хранения. Они заинтересованы в получении готовых решений от тех производителей, которым они могут доверять. Возникновение «второй волны» было вызвано главным образом тремя компаниями — EMC, IBM и HDS. Следует упомянуть и поставщиков комплектующих изделий (прежде всего, SAN-коммутаторов), в том числе Cisco Systems, Brocade и McData. Ну и, конечно, есть еще целый ряд более мелких игроков, таких как Incipient, Revivio и другие начинающие компании, которые насчитывают до сотни сотрудников и финансирование которых исчисляется несколькими десятками миллионов долларов.

Подходы к виртуализации, исповедуемые «большой тройкой», не похожи друг на друга. IBM SAN Volume Controller (SVC) и EMC Invista являются самостоятельными специализированными аппаратно-программными комплексами, специально предназначенными для виртуализации и в точности укладывающимися в сетевую модель виртуализации. Для создания системы хранения можно использовать любой из них плюс необходимый набор накопителей, а основой этих решений являются интеллектуальные коммутаторы третьих фирм. В отличие от них, Hitachi TagmaStore представляет собой полноценный накопитель, для которого виртуализация — лишь одна из функций, позволяющая подключать остальные накопители системы. Функции управления и коммутации «сторонних» накопителей выполняются внутри Hitachi TagmaStore. Централизация дает TagmaStore неоспоримое преимущество: в этой системе поддерживается обратимость между виртуализованными и оригинальными данными, то есть конвертация данных в обоих направлениях. EMC Invista и IBM SVC используют таблицы отображения (mapping table), обеспечивающие лишь одностороннее преобразование.

В силу разной функциональности решения заметно различаются по стоимости. Цена Hitachi TagmaStore даже в самой минимальной конфигурации измеряется шестизначными цифрами, поскольку в комплект входят накопители. Виртуализационная приставка IBM SVC в минимальном комплекте с двумя процессорами стоит несколько десятков тысяч долларов. Ценовая политика EMC Invista еще не вполне определена, но поскольку это решение очень гибко масштабируется, могут варьироваться и цены. Как утверждают в EMC, в минимальном комплекте стоимость решения окажется меньшей, чем у IBM, а в максимальной комплектации будет приближаться к цене продуктов Hitachi.

Где установить устройство виртуализации

Если не рассматривать возможность установить устройство виртуализации на сервере или накопителях, то на уровне сети остаются три способа (схематично их можно представить так, как показано на рис. 2, но, естественно, практические реализации сложнее).

Рис. 2. Подходы к установке устройства виртуализации
  1. Воспользоваться специальным устройством, которое можно включить в поток передачи данных до или после коммутатора (Appliance-based Network Storage Virtualization).
  2. Задействовать интеллектуальные коммутаторы с возможностью подключения дополнительного управляющего модуля (Switch-based Network Storage Virtualization).
  3. Построить специализированный контроллер, который будет управлять подключенными к нему накопителями (Controller-based Network Storage Virtualization).

Раньше других был реализован первый подход, который предполагает наличие специальной приставки (appliance), имеющей достаточно аппаратных и программных средств для решения единственной задачи — виртуализации. Такой подход оказался вполне работоспособным, но у него обнаружились два существенных недостатка. Во-первых, для уменьшения задержек в работе всех устройств, подключенных к приставке по одному каналу, необходима большая кэш-память, а для обеспечения надежности работы ее нужно зазеркалировать; следовательно, возникает проблема синхронизации кэш-памяти. Во-вторых, работа в потоке передаче данных (режим in-band) плохо адаптирована к масштабированию, и один канал рано или поздно станет «бутылочным горлышком».

Специализированный контроллер, который, в сущности, является контроллером второго уровня по отношению к подключенным к нему накопителям, дает колоссальный потенциал масштабирования. Однако по определению такое решение имеет высокую стоимость, а с точки зрения надежности становится единственной точкой отказа. В свою очередь, из-за необходимости обеспечения безотказности стоимость решения еще больше возрастает.

Подход, при котором используются интеллектуальные коммутаторы, свободен от недостатков двух других. Соответствующее решение относительно недорого, в нем нет единственной точки отказа, коммутация «напрямую» исключает необходимость в кэш-памяти и устраняет связанные с ней проблемы. Однако чрезвычайно сложна задача создания прикладного программного обеспечения, работающего непосредственно на коммутаторах или на подключаемых к ним контроллерах.

По своему характеру IBM SVC ближе к первому подходу, Hitachi TagmaStore — ко второму, а EMC Invista — к третьему (рис. 3).

Рис. 3. Три подхода к виртуализации

Контроллер IBM TotalStorage SAN Volume Controller

Хронологически раньше других разнообразные технологии для новой «волны» виртуализации систем хранения предложила корпорация IBM. В 2005 году она объявила о создании уже седьмого поколения систем виртуализации, подразумевая под этим очередную модернизацию IBM TotalStorage SAN Volume Controller (SVC). Однако контроллер виртуализации SVC не является в прямом смысле слова наследником предшествующих поколений. SVC — это совершенно самостоятельный продукт, который разрабатывался под кодовым именем Loadstone и впервые был предложен в июле 2003 года. Его задача заключается в построении «инфраструктуры хранения по требованию». Слово «контроллер» в его названии указывает на то, что SVC является в большей мере менеджером томов, чем машиной виртуализации. Есть все основания считать, что SVC не останется единственным предложением IBM для «второй волны». Появляются отдельные сообщения о том, что совместно с Cisco и начинающей компанией Incipient создается продукт, который будет работать в асинхронном режиме (out-of-band).

С инфраструктурной точки зрения SAN Volume Controller выполнен по синхронной схеме (in-band) и реализует виртуализацию посредством деления информационной системы на две физически независимые зоны. В одну из них, зону хостов, входят серверы, исполняющие приложения. Во вторую, зону хранения, объединены включенные в сеть хранения дисковые массивы. Контроллер SVC, подключенный к обеим зонам, обеспечивает взаимодействие между ними. Благодаря ему каждый физический диск или логический диск, представленный RAID-контроллером в зоне хранения, интерпретируется SVC как управляемый диск. С помощью SVC все управляемые диски объединяются в логические группы и разбиваются на блоки, из которых и формируются виртуальные диски; совместно они образуют общий пул хранения. Распределенные по пулу данные хранятся на виртуальном диске, то есть могут располагаться на блоках, принадлежащих разным физическим дискам и даже разным дисковым массивам. Коммуникация между серверами и SVC, с одной стороны, и между дисковыми массивами и SVC, с другой стороны, осуществляется по каналам Fibre Channel.

Основные интеллектуальные функции «второй волны» в SVC реализует программное обеспечение, которое работает на стандартных серверах IBM xSeries, действующих в режиме in-band. Для большей надежности серверы включены в кластерную конфигурацию. Аппаратно узел кластера SVC представляет собой двухпроцессорный сервер на базе процессоров Pentium 4/2,4 ГГц с кэш-памятью 4 Гбайт, оснащенный четырьмя портами Fibre Channel для подключения к сети хранения. В узел встроены сервисный процессор и специальный таймер WatchDog, постоянно проверяющий работоспособность системы. Операционная система хранится на одном SCSI-диске емкостью 18 Гбайт. Число узлов в кластере может увеличиваться до 8 если наращивать их по двое. Каждая пара, которую в IBM называют «группой ввода/вывода», рассматривается как единая система. В случае отказа диска система может загрузиться со второго узла в группе ввода/вывода.

Устройство SVC реализует промежуточный уровень между серверами приложений и дисковыми массивами. В полученной трехуровневой модели исполняемое на сервере приложение имеет дело не с определенной дисковой подсистемой, непосредственно подключенной к данному серверу, а с виртуальными дисками, созданными контроллером из подключенных к нему дисковых подсистем. При этом виртуальный диск может быть создан из разнородных устройств разных производителей. SVC обеспечивает динамический перенос данных с одного физического устройства на другое прозрачным образом для приложения. Это позволяет управлять производительностью системы хранения, подключая различные дисковые массивы, и масштабировать ее емкость, добавляя диски из управляемых дисковых пулов.

SVC поддерживает широкий спектр режимов создания копий на всех подключенных устройствах хранения. В частности, возможно создание мгновенных копий, которые могут храниться на любом дисковом массиве, подключенном к сети хранения. Кроме того, возможно удаленное зеркалирование между логическими разделами на любых дисковых подсистемах.

В выпущенной в 2005 году обновленной версии SVC увеличены возможности масштабирования и спектр подключаемых подсистем. В зону хранения допускается включать собственные системы хранения IBM, в том числе члены семейств ESS и DS, платформы EMC Symmetrix DMX и 8000, дисковые массивы EMC CLARiiON, Sun StorEdge 9000, HDS 9000, HP EVA, EMA и XP. Функциональность SVC может быть расширена за счет подключения интеллектуальных сетевых коммутаторов McData, Brocade, Cisco или CNT. В последнее время IBM уделяет особое внимание возможности работы с коммутаторами Cisco MDS9000, поскольку признано, что это семейство позволяет с наибольшей эффективностью создавать гетерогенные структуры SAN (SAN fabrics). В зону хостов могут быть включены практически все известные серверные платформы, такие как Windows 2000, Sun Solaris, IBM AIX, HP-UX, Novell Netware, Red Hat Enterprise Linux и SuSE Enterprise Server.

Универсальная платформа Hitachi TagmaStore

В сентябре 2004 года компания Hitachi Data Systems анонсировала новый класс периферийного оборудования, охарактеризовав его как универсальную платформу хранения данных (Universal Storage Platform, USP). Платформой он был назван потому, что может быть использован в крупной корпоративной информационной системе как единственный, консолидированный узел хранения и управления хранением данных. Она одновременно управляет пулом внутренних и внешних накопителей как объединенным виртуальным пространством, объем которого может достигать фантастических величин.

Платформа получила превосходное по точности и образности имя — Hitachi TagmaStore. Слово Tagma на греческом языке означает «нечто упорядоченное», «вещи, расставленные по местам», а также военный отряд или какую-то другую организованную группу людей. Платформа USP TagmaStore действительно способна упорядочивать дисковое пространство систем хранения данных. Она объединяет собственное (т. е. внутреннее) дисковое пространство и внешнее дисковое пространство (подключенных к ней накопителей), управляя таким пулом как объединенным виртуальным пространством. Иначе говоря, данная платформа сочетает в себе два устройства — накопитель корпоративного класса и интеллектуальное средство виртуализации внешних устройств.

USP TagmaStore выполняет две основные функции: хранение данных в собственном пространстве и виртуализацию пространства внешних (по отношению к ней) накопителей. Благодаря виртуализации вся внешняя дисковая память может рассматриваться как единый дисковый пул, разбиваемый на частные виртуальные машины хранения (private virtual storage machine), которых может быть до 32. Трудно сказать, какая их этих функций важнее для заказчиков. Впечатляют и объем внутреннего пространства (до 330 Тбайт в старшей модели), и фантастический объем внешнего пространства (до 32 петабайт за счет агрегирования ресурсов подключенных накопителей).

Разумеется, такие показатели даются нелегко — в том числе и в прямом смысле слова. Весо-габаритные параметры USP TagmaStore заставляют вспомнить об эпохе мэйнфреймов 80-х, поскольку в максимальной конфигурации USP весит около 4 тонн. Естественно, платформа рассчитана на весьма крупные предприятия, уже имеющие большой парк накопителей. Однако реализованный в ней подход являет собой новую парадигму хранения данных, и к трем привычным классам (DAS, NAS и SAN) прибавляется четвертый — USP. Поэтому не исключено, что в будущем это решение получит более широкое распространение.

К числу основных функций TagmaStore относится также репликация данных. Universal Replicator позволяет копировать данные внешних и внутренних накопителей в пределах пула на случай возникновения аварийных ситуаций. Платформа построена на основе разработанной в Hitachi коммутируемой архитектуры Star Network Crossbar Switch Architecture, которая обеспечивает скорость внутреннего обмена до 81 Гбайт/с (из них 68 Гбайт/с — при перемещении данных, 13 Гбайт/с — при управлении), что позволяет выполнять свыше 2 млн. операций ввода/вывода в секунду. Она поддерживает подключение до 192 портов Fibre Channel, до 48 портов FICON или 96 портов ESCON, а также подключение «лезвий» NAS.

Сейчас система поставляется с дисками емкостью 146 Гбайт, а вскоре начнутся поставки дисков емкостью от 300 Гбайт. Платформа TagmaStore выпускается в трех вариантах. В младшей модели Entry Level Model USP100 может быть установлено до 256 дисков емкостью 146 Гбайт или 300 Гбайт (таким образом, максимальная емкость составляет 77 Тбайт). Допускается подключение до 64 портов Fibre Channel, а также портов FICON, ESCON и NAS. Показатели средней модели Enhanced Model USP600 — в два раза больше, а старшей модели High Performance Model USP1100 — в четыре (последняя может хранить 332 Тбайт на 1152 дисках и более чем в восемь раз превосходит по этому показателю самую мощную из ранее существовавших систем хранения данных).

Разработчики TagmaStore пошли по пути создания платформы виртуализации, основанной на контроллере системы хранения (storage controller-based virtualization platform). Аргументация отказа от более традиционной сетевой виртуализации сводится к следующему. Во-первых, перенос виртуализации на уровень сети существенно повышает функциональную сложность, поэтому увеличиваются задержки и снижается общее быстродействие. Во-вторых, синхронный и асинхронный подходы страдают общей болезнью: они не поддерживают достаточно эффективной обратной связи с контроллерами накопителей. По мнению инженеров из Hitachi, устройство, обеспечивающее виртуализацию (даже такое, как интеллектуальный коммутатор), по определению не располагает всей информацией о состоянии накопителей. Для ее получения такое устройство должно прерывать нормальные потоки ввода/вывода, что приводит к нарушению целостности запросов ввода/вывода.

Решение получило название Controller-based External Virtualization Platform, что можно перевести как «внешняя платформа виртуализации, основанная на контроллере». Суть этого решения сводится к созданию суперконтроллера, или котроллера второго уровня, к которому непосредственно подключаются контроллеры отдельных накопителей. В результате получается «сверх?устройство», в котором виртуально присутствуют все накопители.

Решение EMC Invista

Вхождение EMC в начале 2005 года в клуб поставщиков «второй волны» стоит рассматривать в более широком контексте программы этой компании, получившей название «Виртуальная информационная инфраструктура» (Virtual Information Infrastructure). Она предполагает глобальное распространение виртуализационных решений (не только на системы хранения данных, что естественно для поставщика систем хранения, но и на серверы), а также объединение с управлением неструктурированными данными и жизненным циклом информации (information lifecycle management, ILM). Следуя по этому пути, EMC приобрела компании VMware, LEGATO и Documentum, известные в каждой из перечисленных областей.

Появление Invista есть не что иное, как еще один шаг в избранном направлении, и название этого продукта, которое в переводе с итальянского означает «в поле зрения», вполне символично. Invista с определенными допущениями можно отнести к категории продуктов следующего поколения, которые пока условно называют «сетевыми маршрутизаторами для работы в сети хранения». В Invista реализован метод Switch-based Network Storage Virtualization. Решение представляет собой состоящий из двух узлов кластер (Control Path Cluster, CPC) на базе процессоров архитектуры IA-32, подключаемый по Fibre Channel к сети хранения и работающий совместно с интеллектуальными коммутаторами Cisco MDS 9000 и Brocade Silkworm Fabric Application AP7420 (после сертификации можно будет использовать и коммутаторы McData). В Invista используется открытый API для подключения интеллектуальных коммутаторов, поэтому количество и тип коммутаторов могут выбираться в соответствии с нагрузкой. Компания EMC предлагает принять стандарт на интеллектуальный коммутатор и приложения с рабочим названием Fabric Application Interface Standard. Сейчас его рассматривает группа INCITS T 11.5, ответственная за создание стандартов, относящихся к Fibre Channel.

Рис. 4. Разделение потоков в архитектуре SPAID

Конструктивная особенность решения заключается в разделении функций между маршрутизатором и коммутатором, что позволяет сегментировать работу с двумя потоками — ввода/вывода данных (Data Path) и операций управления (Control Path). Схема взаимодействия двух потоков (рис. 4) воплощает в себе лучшее из двух альтернативных подходов — синхронного и асинхронного. Из первого заимствуются логическая простота, свобода от необходимости кэширования, а из второго — возможность масштабирования. Получившаяся схема названа «архитектура разделения потоков для интеллектуальных устройств» (Split Path Architecture for Intelligent Devices, SPAID). В общем виде архитектура Invista представлена на рис. 5. В процессе работы CPC поддерживает репозиторий метаданных, в которых отражено соответствие логических и физических ресурсов хранения. CPC загружает метаданные, при необходимости снабжает ими коммутаторы и обрабатывает возникающие исключительные ситуации. При этом CPC остается вне потока данных и не вызывает задержек ввода/вывода.

Можно предположить, что Invista для EMC — только первый шаг к виртуализации систем хранения. В пользу такого мнения свидетельствует приобретение ею небольшой компании Maranti Networks, которая разрабатывала собственные конструкции интеллектуальных коммутаторов.

Рис. 5. Архитектура Invista

Для большинства владельцев систем хранения вопросы виртуализации такого масштаба носят скорее теоретический, чем практический характер. В небольших компаниях используются более скромные продукты —FalconStor Software (пакет IPStor), DataCore Software (пакет SANsymphony) и Softek Virtualization, и описанные нами решения не стали массовым. Так, за два года существования IBM SVC продано лишь немногим более 1 тыс. экземпляров этого продукта. Трудно предположить, что TagmaStore разошелся в больших количествах, хотя HP и Sun Microsystems делают ребрендинг и продают его под именами StorageWorks и StorEdge соответственно. Но если рассматривать виртуализацию как один из первых шагов от простого хранения данных к управлению жизненным циклом информации, то развитие этих технологий нельзя оставлять без внимания.


Виртуализация на сетевом уровне

Ассоциация Storage Networking Industry Association определяет виртуализацию систем хранения на сетевом уровне (Network-based Virtualization) следующим образом: «Сетевая виртуализация интегрирует функции или сервисы заднего плана (back end) и тем самым повышает степень абстрактности представления данных; одновременно она расширяет сервисы переднего плана (front end)».

Определение Enterprise Strategy Group является более конкретным: «Виртуализация — это сумма технологий, которые позволяют собрать данные из разных источников, размещенные на физических устройствах, в сетях и приложениях, а затем представить их на логическом уровне, доступном пользователю». Но и это определение можно конкретизировать. Виртуализация обеспечивает стандартное представление данных на логическом уровне, не связанное с физическим представлением на конкретных устройствах; она устраняет жесткую связанность систем хранения с серверами и оставляет за последними только функции, связанные с выполнением приложений.

Преимущества, обеспечиваемые виртуализацией, таковы.

  • Единый набор средств для всей системы хранения. В современных условиях стоимость управляющего программного обеспечения вполне может оказаться выше стоимости управляемого аппаратного обеспечения. Кроме того, каждый производитель поставляет собственный инструментарий, требующий от персонала специальных знаний и навыков. Виртуализация позволяет консолидировать менеджмент всех томов в центре управления данными, использовать одни и те же методы и продукты. В результате снижаются затраты на управляющее программное обеспечение и оплату труда сотрудников.
  • Управление жизненным циклом информации. Собственно, технологии сетей хранения решают проблему физического объединения в многоуровневую среду устройств с разной производительностью и разной удельной стоимостью хранения. Виртуализация обеспечивает логическое объединение и превращает среду в удобную платформу для реализации ILM-решений.
  • Эффективная репликация и миграция данных. Перемещение данных при создании резервных копий или при необходимости введения в эксплуатацию новых устройств либо снятии с эксплуатации старых может происходить в режиме, невидимом для приложений. Кроме того, можно более целесообразно распределять ресурсы за счет сочетания быстрых, но дорогих SCSI-дисков, подключенных по оптическому волокну, с медленными, но дешевыми SATA-дисками.

Интеллектуальные коммутаторы

Первые представления о сетях хранения, появившиеся шесть-семь лет назад, страдали упрощенностью. Казалось, что достаточно разделить модель сети (наподобие того, как это было сделано в модели SNIA) на два аппаратных уровня, логический и физический, и задача создания сети хранения будет решена. Предполагалось, что совместно они обеспечат управление скоростью обмена, масштабированием и политикой виртуализации. К сожалению, создатели такой модели не были, по всей видимости, знакомы с азами теории автоматов. Они выбрали слишком простой путь, избрав в качестве ориентира модель ISO/OSI, и не учли одного важного обстоятельства. В частном случае, характерном для модели ISO/OSI, которая адекватна коммуникационным задачам, автоматы могут не иметь собственного состояния, поэтому сети передачи данных свободны от тех проблем, которые имеются в сетях ранения, где накопители по определению являются автоматами, имеющими состояние и память. К тому же сложности коммутации в сетях хранения усугубляются тем, что между хостами и накопителями здесь существует связь, которую можно назвать «отношением подчинения» (master-slave model). Иными словами, накопитель находится в зависимости от хоста, ждет от него команд.

По своей логике сети хранения оказались намного сложнее сетей передачи данных. Выяснилось, что относительно простые аппаратные коммутаторы не в состоянии справиться с возможными в таких сетях коллизиями, и примерно с 2003 года начались работы по созданию интеллектуальных коммутаторов. Чтобы разрешать коллизии, возникающие в сетях хранения, они должны сочетать в себе коммутирующую архитектуру с интеллектуальностью маршрутизации ввода/вывода. Сетям такого типа предстоит примерно та же эволюция, какая произошла в сетях передачи данных, где наблюдался постепенный переход от коммутаторов уровня 2 к уровню 3, а затем к полнофункциональным маршрутизаторам. Пока не установлен даже универсальный термин для интеллектуальных коммутаторов: их называют то intelligent switch, то application switch, то fabric appliance.

Интеллектуальные коммутаторы, применяемые в сетях хранения, можно считать коммутаторами следующего поколения. Их предшественники в основном могли выполнять одну функцию: передавать сигнал с одного порта на другой с минимальной задержкой. К каждому порту интеллектуального коммутатора подключается специализированная интегральная микросхема или сетевой процессор, за счет чего создается интеллектуальный порт. Эти порты подключаются к специализированной плате (ее обычно называют «лезвием приложений» — application blade), на которой выполняется приложение, управляющее работой интеллектуального коммутатора.

«Лезвие» представляет собой обычный сервер на платформе IA-32, имеющий кэш-память и каналы ввода. Благодаря такому расширению интеллектуальные коммутаторы могут выполнять те приложения, которые прежде реализовались в хостах или самих системах хранения. Эти приложения составляют основу виртуализации, обеспечивая управление томами, репликацию, зеркалирование, маскирование логических номеров устройств, создание резервных копий и восстановление. При построении виртуализированных решений для сетей хранения можно ограничиться выполнением только тех приложений, которые работают на «лезвии» приложений в самом интеллектуальном коммутаторе (данный подход реализует Veritas), или дополнить его функциональность специализированным процессором (системы IBM SVC и EMC Invista).

Рынок интеллектуального коммутаторов находится в процессе становления. Его основными игроками намереваются стать компании Brocade, Cisco, Maranti, Maxxan, McData, Sun Microsystems и Troika Networks. Часть из них уже готова предложить свои продукты, а остальные собираются анонсировать их в ближайшее время.