Централизованное хранение данных на подключенных к сети ресурсах имеет множество преимуществ — как для малого бизнеса, так и для корпоративных ЦОД. В то же время при централизованном хранении возможны проблемы производительности — в случае интенсивного доступа к тем или иным ресурсам или при выполнении ресурсоемких приложений. Как же обеспечить достаточную производительность при выборе сетевой инфраструктуры для хранения данных и при настройке ее конфигурации с учетом нужд организации?

 

Независимо от того, используете ли вы сеть хранения данных SAN или устройство NAS, скорее всего, те или иные критичные корпоративные данные хранятся в некоей сетевой файловой системе или, во всяком случае, должны в ней храниться. Их совместное использование означает более эффективное распределение емкости хранения, простой доступ к корпоративной информации и защищенность с помощью таких средств, как RAID. Централизованное хранение означает также более простое управление ресурсами хранения, а запланированное создание резервных копий проще выполнять в случае сетевых систем хранения, чем при использовании DAS.

В то же время при централизованном хранении возможны проблемы производительности — в случае интенсивного доступа к тем или иным ресурсам или при выполнении ресурсоемких приложений. Как же обеспечить достаточную производительность при выборе сетевой инфраструктуры для хранения данных и настройке ее конфигурации для нужд организации?

КЭШИРОВАНИЕ НА SSD

Малые задержки и высокая скорость ввода-вывода в IOPS, характерные для твердотельных накопителей SSD, делают их привлекательным вариантом для достижения гарантированной производительности. Однако даже с учетом снижения цен на флэш-память магнитные носители той же емкости остаются намного более дешевыми, поэтому с финансовой точки зрения полный переход на флэш-память в корпоративной среде непрактичен. Вместе с тем применение накопителей SSD в режиме кэширования совместно с традиционными вращающимися дисками обеспечивает высокие показатели ROI, сбалансированную производительность и достаточную емкость хранения при приемлемой цене.

Чтобы максимально эффективно использовать такие качества SSD, как превосходное время доступа и высокая скорость ввода-вывода, важно выбрать для их развертывания верное место в стеке хранения. Если использовать SSD в верхней части стека для хранения «горячих» данных с высокой частотой запросов к ним, то таким образом можно добиться максимальной окупаемости инвестиций и сократить число запросов к жестким дискам.

Так, например, в случае алгоритма кэширования на SSD, используемого Qsan, данные в кэше SSD представляют собой дубликат часто запрашиваемой информации, хранимой на магнитных носителях. При операции чтения они считываются с исходного носителя и в фоновом режиме копируются в кэш SSD, а при последующих запросах чтения по тому же адресу могут быть считаны с быстрых флэш-накопителей. Кэширующие алгоритмы отличаются множеством параметров, например размером блока данных в кэше. Изменяя эти параметры, кэш SSD можно настроить для поддержки различных сервисов, таких как файловый сервис, СУБД или Web-сервис.

Использование дедупликации данных — один из эффективных методов увеличения ROI от инвестиций в SSD, особенно на блочном уровне, например в системах хранения SAN или унифицированных СХД. (Еще более увеличить доступную емкость систем хранения можно за счет «тонкого», или динамического, распределения ресурсов — Thin Provisioning.) В зависимости от избыточности дедуплицируемых данных можно легко добиться трехкратной и более экономии емкости хранения. В частности, при применении SSD дедупликация может оказаться особенно эффективной, если соответствующую таблицу (Deduplication Data Table, DDT) хранить во флэш-памяти. При малых задержках доступа к «горячим» данным, хранимым в DDT, кэширование на SSD в сочетании с дедупликацией может улучшить использование емкости хранения и повысить производительность вращающихся носителей, и все это — при минимальных издержках (см. Рисунок 1).

Рисунок 1. Использование Qsan Layer 2 Adaptive Replacement Cache (L2ARC) в качестве кэш-памяти для чтения значительно увеличивает пропускную способность при выполнении дедупликации.
Рисунок 1. Использование Qsan Layer 2 Adaptive Replacement Cache (L2ARC) в качестве кэш-памяти для чтения значительно увеличивает пропускную способность при выполнении дедупликации.

 

Кроме применения в качестве кэш-буфера чтения, накопители SSD отлично проявляют себя и при записи. Один такой накопитель, реализованный в сетевой системе хранения в качестве кэша записи, например ZFS Intent Log (ZIL), способен резко увеличить скорость синхронных операций записи в базах данных или в приложениях NFS — на 250% при произвольной и на 300% при последовательной записи (см. Рисунок 2).

Рисунок 2. Всего один SSD, реализованный в качестве кэша записи ZIL, может улучшить производительность на 250–300%.
Рисунок 2. Всего один SSD, реализованный в качестве кэша записи ZIL, может улучшить производительность на 250–300%.

 

ФУНКЦИИ ISCSI И FC OFFLOADING

Включение программного обеспечения инициатора iSCSI в Windows 7 и Windows Server 2008 оказало значительное влияние на корпоративные системы хранения, позволив без дополнительных усилий реализовать блочный доступ к сетевым СХД не только на серверах, но и на обычных настольных ПК и рабочих станциях. Однако простота использования iSCSI оказалась палкой о двух концах. Хотя совместимость программного обеспечения iSCSI — удобное свойство современных операционных систем, программная обработка команд хранения данных iSCSI и пакетов TCP/IP требует ресурсов процессора хоста, что снижает его производительность.

Решение состоит в использовании аппаратных средств для «разгрузки» iSCSI и TCP/IP (offloading). При выделении процессорного ядра для обработки данных iSCSI и TCP/IP, аппаратные средства, такие как Qsan QiSOE, могут при минимальных начальных инвестициях снизить непроизводительные издержки на протокол, что выливается в значительное улучшение производительности как при последовательных чтении и записи, так и при произвольном доступе к данным.

Накладные расходы на коммуникационный протокол сказываются как на хосте, так и на устройстве хранения. Аппаратные карты расширения на стороне хоста — так называемые конвергентные сетевые адаптеры (Converged Network Adapter, CNA) — объединяют функциональность традиционной сетевой карты и адаптера шины хоста (Host Bus Adapter, HBA), перенося обработку протоколов TCP/IP и iSCSI в оборудование.

Исключение обработки протокола хранения данных из программной нагрузки оказывается полезным и в других случаях. Протокол Fibre Channel, наиболее популярный в сетях хранения SAN, тоже может получить значительный выигрыш по производительности за счет переноса на аппаратный уровень непроизводительных издержек при обработке протокола хранения данных (см. Рисунок 3).

 

Рисунок 3. Технология fCQiSOE для разгрузки Fibre Channel позволяет значительно увеличить скорость передачи данных в сетях SAN.
Рисунок 3. Технология fCQiSOE для разгрузки Fibre Channel позволяет значительно увеличить скорость передачи данных в сетях SAN.

 

АППАРАТНЫЙ RAID

Обеспечивая избыточность данных, контроль четности и даже превосходную производительность, RAID является одной из основных технологий систем хранения данных корпоративного уровня, о которой тем не менее нередко забывают и не учитывают того, что программный RAID сказывается на производительности. Будучи встроенным в каждую современную операционную систему, он не всегда идеально отвечает потребностям корпоративных ЦОД.

Отделение реализации RAID от операционной системы может дать ряд преимуществ. При простой реализации, такой как RAID0 или RAID1, влиянием программного обеспечения RAID на производительность системы можно пренебречь, но этот режим редко применяется в корпоративных системах. Если учитывать операции проверки четности и большое число дисков, то аппаратный RAID будет заметно отличаться от программного в характеристиках IOPS.

Аппаратный RAID более надежен для корпоративного применения. На случай проблем с электропитанием предусмотрена возможность использования батареи (Battery Backup Unit, BBU), что позволяет сохранять все важные данные в энергонезависимой памяти и считывать их оттуда после подачи электроэнергии. Поскольку управление RAID отделено от операционной системы, целостности данных ничто не угрожает даже при аварийном завершении работы ОС. Кроме того, аппаратный RAID способен защищать данные в процессе загрузки операционной системы, в то время как программный «выходит на сцену» лишь по его завершении.

БЫСТРОЕ ПЕРЕСТРОЕНИЕ

Хотим мы того или нет, выходят из строя даже диски корпоративного класса. В таком случае RAID должен перестроить массив, используя диск горячего резерва и данные четности с исправных дисков. Если емкость измеряется в гигабайтах, время перестроения дискового массива окажется вполне приемлемым, но при терабайтной емкости, что сейчас уже не редкость, интервал перестроения может составлять несколько часов, и все это время корпоративная информация будет уязвимой. В современных ЦОД, где емкости хранения, конечно, измеряются терабайтами и петабайтами, функция быстрого перестроения (fast rebuild), встроенная в сетевые СХД (см. Таблицу 1), является крайне необходимой.

Таблица 1. Эти группы RAID 6 демонстрируют значительное улучшение скорости перестроения благодаря функции Fast Rebuild.
Таблица 1. Эти группы RAID 6 демонстрируют значительное улучшение скорости перестроения благодаря функции Fast Rebuild.

 

СОВМЕСТИМОСТЬ СО СРЕДАМИ ВИРТУАЛИЗАЦИИ

В корпоративных ЦОД широко применяется виртуализация. В сетевых СХД виртуализируются ресурсы хранения, что позволяет управлять ими централизованно. Кроме того, благодаря виртуализации можно консолидировать вычислительные мощности, централизованно управлять рабочими станциями, обновлениями и т. д. Все эти преимущества вполне реальны, но наибольшие выгоды приносит использование сетевых систем хранения данных, сертифицированных для виртуализированных сред.

Между тем виртуализация предъявляет к системам хранения уникальные требования, и СХД нередко становятся узким местом при попытке увеличить производительность среды VDI. Так, VMware, принимая во внимание уникальные требования, которые виртуализация предъявляет к СХД, предлагает специальные протоколы, например VMware vSphere Storage API — Array Integration (VAAI). Аналогично тому, как операции iSCSI и RAID можно перенести на уровень специальных аппаратных средств, тем самым разгрузив процессор, VAAI позволяет отделить операции хранения данных от сервера виртуализации. В результате каждый компонент ЦОД получает возможность делать то, на что он более всего способен. Оборудование хранения данных, сертифицированное и совместимое с VAAI, не только повышает производительность среды виртуализации, но и обеспечивает эффективное выполнение важнейших функций виртуализированных СХД — в частности, клонирование, обнуление и снимки данных.

Ключевыми метриками любого корпоративного ЦОД являются производительность и надежность сетевых СХД, но дьявол кроется в деталях. Кэширование на SSD в многоуровневой среде хранения (tiered storage) и динамическое распределение емкости (thin provisioning), перенос функций iSCSI и RAID на аппаратный уровень (offloading), выбор систем хранения данных с функцией быстрого перестроения (fast rebuild), совместимость с VMware позволят компаниям получить максимальную отдачу от своих инвестиций в оборудование.

Бартек Митник — директор по продажам компании Qsan Technology в регионе EMEA.

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF