Какую роль будут играть СХД в современных виртуализированных ЦОД и в облачной инфраструктуре? Как можно повысить их производительность, ускорив работу всего центра данных? Как справиться с лавинообразным ростом объемов сохраняемой компаниями информации? Этим темам была посвящена значительная часть докладов на техническом потоке «Виртуализация и программно определяемый ЦОД» ежегодного форума «МИР ЦОД», проведенного в конце мая издательством «Открытые системы».

Современные рыночные тенденции связаны со стремительным ростом объемов данных, подчеркнул Грег Кволек, старший директор по развитию облачных технологий компании HGST: «Половина всех созданных в мире цифровых данных была накоплена всего лишь за последние два года. И эта тенденция сохранится: среднегодовой темп роста объемов накапливаемой корпоративной информации составит 55%. В ближайшие годы наибольший вклад в него будут вносить облачные приложения (см. Рисунок 1), однако спрос на повышенную емкость корпоративных систем хранения растет намного быстрее, чем возможности увеличения плотности размещения информации — среднегодовой темп роста емкости на дисковой пластине (плотность размещения данных) в гигабайтах составляет лишь примерно 20%». Поэтому отрасли требуются новые подходы.

Рисунок 1. Тенденции развития устройств хранения данных по прогнозу HGST.
Рисунок 1. Тенденции развития устройств хранения данных по прогнозу HGST.

 

SSD И HDD

Важнейшая тенденция — развитие флэш-памяти. Флэш-память и накопители SSD занимают свою нишу в ЦОД — они помогают правильно разделить данные по типам, находят применение в серверах и СХД. Между тем, согласно прогнозам, даже к 2020 году свыше 85% файловых данных будут храниться на жестких дисках. «Жесткие диски оказываются одними из ключевых элементов в ЦОД, а с учетом накопителей SSD системы хранения составляют значительную часть расходов в центрах данных, — подчеркивает Грег Кволек. — Все чаще вендоры напрямую взаимодействуют с поставщиками дисков с целью оптимизации производительности систем и разработки новых методов защиты данных».

Характерно, что плотность записи у жестких дисков и твердотельных накопителей SSD растет примерно схожими темпами — технологии развиваются параллельно, и это еще один аргумент в пользу HDD. Такие накопители сохранятся и в будущем, уверены в HGST. Неплохая перспектива и у недорогих жестких дисков (cold storage) — как ожидается, они будут стоить примерно столько же, что и ленточные устройства хранения. Первые подобные решения (возможно, в них будет использоваться принцип черепичной записи — Shingle PMR) появятся, судя по всему, в 2015 году. Их можно будет применять для резервного копирования. В числе других многообещающих разработок — дисковые накопители с лазерной и тепловой поддержкой (HPMR), а также нанолитография.

«Предложение в нишах медленных и самых быстрых накопителей (PCIe) будет только расширяться», — считает Грег Кволек. Таким образом, системы хранения станут еще больше различаться по производительности и стоимости в расчете на гигабайт. Что касается ближайшего будущего, в HGST его связывают с выпуском герметизированных гелиевых дисков, которые «дают очевидные преимущества, увеличивая ценность остальных инноваций, применяемых при производстве жестких дисков». Благодаря таким дискам емкость хранения можно увеличить более чем на 40%. Они требуют меньше энергии и затрат на охлаждение: температура корпуса накопителя снижается примерно на 40C по сравнению с традиционным HDD.

Популярным методом ускорения приложений стало кэширование данных на SSD — сегодня это основа для многих решений. Ранее для кэширования использовалась оперативная память, но посредством SSD удалось значительно увеличить емкость кэша при приемлемой цене.

УСКОРЕНИЕ СХД

Специалисты компании LSI при оценке работы систем корпоративного уровня отмечают низкий коэффициент использования серверов, невысокую производительность приложений, применение высокопроизводительных (и энергозатратных) накопителей HDD там, где в этом нет необходимости. Это типичная ситуация, и бороться с ней предлагается с помощью флэш-памяти. По данным LSI, использование последней в ЦОД может увеличить скорость работы приложений в 2–4 раза, сократить время ожидания транзакции в 5–10 раз, снизить потребление электроэнергии. Сегодня производительность систем хранения повышается за счет использования дисков SSD с интерфейсом PCIe либо SSD, подключаемых к адаптерам HBA или контроллерам RAID, а также путем установки гибридных накопителей (SSD+HDD).

В последние два года LSI занимается оптимизацией оборудования под приложения: базы данных, облачные приложения и пр. Год назад компания образовала подразделение Accelerated Solutions. Сегодня ее линейка продуктов LSI Nytro включает в себя продукты SSD PCIe для ускорения работы различных сред и приложений: ERP, CRM, транзакционных БД, задач аналитики, сред виртуализации и облачных инфраструктур. Они позволяют одновременно задействовать HDD и SSD.

Nytro WarpDrive — семейство твердотельных накопителей Nytro на SSD емкостью до 3,2 Тбайт с интерфейсом PCIe — используется как быстрая память для ускорения работы серверов. Флэш-накопители серии Nytro XD — решение локального кэширования на SSD для внешних СХД. С их помощью повышается производительность внешних СХД блочного уровня, работающих по любому протоколу (SAS, FC, iSCSI), что достигается благодаря ПО кэширования и памяти SSD, устанавливаемой непосредственно в сервер.

Продукты серии Nytro MegaRAID (см. Рисунок 2) обеспечивают интеллектуальное кэширование «горячих» данных дисковых массивов. Как рассказал Александр Зейников, региональный директор LSI, выпущенная в июле новая версия ПО контроллеров MegaRAID позволяет использовать SSD и для загрузки операционной системы сервера. Кроме того, кэширование становится все более интеллектуальным, алгоритмы совершенствуются. Так, новая функция Elastic Cache у LSI дублирует кэш записи (для защиты от потери данных), но хранит кэш чтения в единственном экземпляре.

Рисунок 2. Эффективное наращивание производительности приложений благодаря использованию контроллера LSI Nytro MegaRAID.
Рисунок 2. Эффективное наращивание производительности приложений благодаря использованию контроллера LSI Nytro MegaRAID.

 

По информации LSI, MеgaRAID ускоряет работу с данными в 10 раз по сравнению с конфигурациями, где применяются только HDD, а время, необходимое для перестроения массива RAID, сокращается до 75%. И еще несколько интересных цифр по использованию MegaRAID: СУБД Oracle начинает функционировать до 30 раз быстрее, а Microsoft SQL Server — до 10 раз. Таким образом, благодаря Nytro MegaRAID уменьшается период ожидания и улучшается транзакционная пропускная способность, что положительно влияет на ключевые метрики производительности ЦОД — в частности, время отклика пользовательских приложений сокращается. Подобные продукты предлагают сегодня IBM, Dell и другие крупные вендоры. Они значительно ускоряют работу сред виртуализации, таких как VDI, и позволяют на 50% увеличить число ВМ, устанавливаемых на сервер.

На форуме были представлены примеры решений разных вендоров, отличающиеся высокими показателями производительности, масштабируемости, емкости хранения или реализующие новые подходы к хранению данных.

ВЫСОКОПРОИЗВОДИТЕЛЬНАЯ РАБОТА С ФАЙЛАМИ

Один из таких продуктов — StorNext компании Quantum, программно реализованная СХД, впервые представленная уже более 10 лет назад. Эта система высокопроизводительного доступа к файлам посредством SAN обеспечивает совместную работу пользователей с файлами через высокоскоростные каналы передачи данных. Ее можно использовать как систему высокопроизводительного архивирования в рамках управления жизненным циклом файловых ресурсов. «Важные особенности системы — ее прозрачность и мультиплатформенность. В настоящее время для нее есть клиенты под Windows, Linux, UNIX и Mac OS, предусматривается широкая поддержка аппаратных платформ и ленточных библиотек (Quantum и других вендоров)», — рассказывает Константин Баканович, технический директор компании DSCon, работающей на рынке СХД и высокопроизводительного интерконнекта. StorNext — модульное решение, ее компонентами являются StorNext File System, которая позволяет работать с файлами через SAN (Fibre Channel 8 Гбит/с, iSCSI, Ethernet, Infiniband), и система архивирования StorNext Storage Manager.

Файловая система StorNext File System обеспечивает эффективный одновременный кросс-платформенный доступ ко всем файлам в режиме реального времени при высокой масштабируемости (она способна хранить петабайты данных). StorNext может применяться для решения различных задач — от производства и обработки видео до научных вычислений. «От прочих систем общего доступа к файлам она отличается очень высокой производительностью, как поточной, так и транзакционной, — поясняет Константин Баканович. — поэтому ее можно применять и для работы с мощными СУБД. Традиционный доступ к файлам через сеть IP сопряжен с большими задержками и не всегда обеспечивает достаточную скорость (что может быть критичным, например, в задачах нелинейного монтажа), а классическая реализация SAN не позволяет хостам совместно работать с файлами через FC. Благодаря StorNext File System, клиенты StorNext получают одновременный доступ к файлам через высокоскоростное соединение». Отдельные хосты (контроллеры метаданных) используются для управления и объединяются по сети IP.

Когда приложение генерирует команду записи, клиент StorNext через локальную сеть отправляет запрос на операцию контроллеру метаданных, тот обрабатывает запрос и отвечает клиенту, указывая блоки на диске, куда можно поместить данные, после чего клиент StorNext производит запись в файловую систему со скоростью канала (через SAN). Контроллер метаданных контролирует каждую операцию записи и разрешает конфликты. Метаданные передаются по IP, а данные приложений — через FC или другой высокопроизводительный интерфейс. «Такая архитектура применяется не только в StorNext, но именно эта система отличается очень высокой производительностью», — подчеркивает Константин Баканович.

При построении системы архивирования к StorNext через SAN подключается ленточная библиотека, а файлы перемещаются с дисков на магнитные ленты в соответствии с заданными правилами. При этом файлы остаются доступны клиентам и при необходимости загружаются с ленты на дисковый массив. «Такое хранение файлов эффективно с точки зрения производительности и стоимости, — считает Константин Баканович. — К тому же дисковое и ленточное пространство можно наращивать динамически, без остановки работы — система хорошо масштабируется и позволяет легко переносить данные. StorNext продается не только в виде ПО, но и как готовые программно-аппаратные комплексы. StorNext M440 и M660 на сертифицированной платформе — это простой и эффективный способ построить высокопроизводительные файловую систему, многоуровневое хранилище и решение архивирования».

Конфигурация комплекса включает в себя процессоры Xeon 2,4 ГГц, память DDR3 емкостью 24 Гбайт, дисковый массив RAID 1 (6 дисков SAS 10K по 146 Гбайт с одним диском для горячей замены), контроллер SAS 6 Гбит/с, сетевой шлюз (в составе M660), два порта FC и 3 порта 10GbE (в M440) или восемь портов FC и 11 портов 10GbE (в M660), предустановленную файловую систему StorNext File System, выделенный массив RAID для метаданных и журнала. Порты могут использоваться для подключения к дисковым массивам и к ленточной библиотеке. StorNext поддерживает большое количество хранилищ, выпускаемых разными вендорами.

Ленточная библиотека Quantum Scalar i6000 HD с увеличенным объемом хранения данных, большей плотностью хранения и уменьшенным энергопотреблением позволяет хранить почти 5 Пбайт данных в одном шкафу 19″. В ее составе — два робота для переноски лент, работающих в активном режиме. А специализированное устройство Scalar LTFS Appliance представляет систему в виде NAS, благодаря чему приложения и пользователи получают возможность записывать и читать данные непосредственно с ленты.

Между тем центры обработки данных нового поколения предъявляют повышенные требования не только к производительности и емкости, но и к масштабируемости, надежности и функциональности систем хранения данных.

МАСШТАБИРУЕМОСТЬ И ФУНКЦИОНАЛЬНОСТЬ СХД

«Выход из строя СХД приводит не только к приостановке работы с данными, но и к потере информации, напоминает Александр Новиков, менеджер отдела продаж департамента систем хранения данных компании CompTek. — Требования к отказоустойчивости и катастрофоустойчивости СХД должны быть выше, чем аналогичные требования к серверам. СХД выбирается на более длительный срок, чем серверы: системы хранения обновляются раз в 6–7 лет, то есть служат значительно дольше серверов, а значит, к их выбору нужно подходить серьезнее. Именно поэтому к надежности СХД предъявляются высокие требования. Система хранения должна поддерживать классический набор функций: многоуровневое хранение, резервное копирование и др.».

При проектировании ЦОД организации сталкиваются с рядом острых проблем. В первую очередь — с необходимостью масштабирования в связи с ростом объемов хранимых данных (см. Рисунок 3). Если через 5–6 лет СХД уже не будет хватать емкости, то компании, использующие ЦОД, столкнутся с проблемой переноса данных на новую программно-аппаратную платформу, причем делать это придется в предельно сжатые сроки.

Рисунок 3. Высокие темпы роста объемов данных заставляют обращать особое внимание на степень масштабируемости СХД и гарантии защиты инвестиций.
Рисунок 3. Высокие темпы роста объемов данных заставляют обращать особое внимание на степень масштабируемости СХД и гарантии защиты инвестиций.

 

Крупные холдинги и ведомства часто выбирают топологию, при которой, помимо главного федерального центра обработки данных, в каждом макрорегионе строятся дополнительные ЦОД. В этом случае наряду с масштабируемостью возникает необходимость осуществления простой и удобной репликации данных из региональных ЦОД в центральный. Другие ключевые задачи — обеспечение безопасности серверов и приложений и управление доставкой приложений для различных типов пользователей, включая мобильных и удаленных сотрудников.

Для их решения CompTek предлагает систему Isilon компании EMC, обеспечивающую масштабируемость СХД и защиту инвестиций. Эта кластерная система состоит из узлов, обладающих достаточной емкостью хранения и процессорными мощностями. Поэтому при добавлении узлов и увеличении емкости производительность не снижается. «Такие системы надежнее обычных СХД, где узким местом являются контроллеры. В кластере при отказе узла система не теряет своей работоспособности, — поясняет Александр Новиков, — а при добавлении нового узла данные распределяются по всей доступной емкости хранения. Минимальная конфигурация системы — четыре узла общей емкостью 18 Тбайт, которую можно наращивать до 15–20 Пбайт». Масштабируемость без остановки работы, одновременное наращивание емкости и производительности, простота эксплуатации, единая файловая система, единая точка управления и возможность автоматизации задач — эти достоинства Isilon являются весомыми аргументами в пользу внедрения этого решения в условиях роста объемов данных.

Тем временем развитие технологии виртуализации и появление концепции программно определяемых ЦОД заставляют EMC искать новые подходы к хранению данных.

ПРОГРАММНО ОПРЕДЕЛЯЕМЫЕ СИСТЕМЫ ХРАНЕНИЯ

«В целом условия для виртуализации ЦОД уже сформировались, но некоторых компонентов все же не достает. Настройка виртуальной инфраструктуры пока еще слишком сложна и тормозит развертывание новых сервисов, поэтому требуется какое-то новое решение, — считает Денис Серов, руководитель направления технического консультирования EMC в России и СНГ. — Процесс предоставления инфраструктуры для виртуальной среды тоже нуждается в автоматизации. Функционал системы хранения недостаточно эффективно используется гипервизорами. Чтобы инвестиции в инфраструктуру ЦОД не пропали, гипервизор должен «понимать», что умеют система хранения и сеть».

Компания EMC ввела новый термин — программно определяемое хранение данных. Программно определяемая СХД (SDS) является одним из компонентов программно определяемого ЦОД (SDDC), задача которого — гибкое предоставление сервисов приложениям и повышение эффективности ресурсов. По аналогии с серверной средой «программное определение» систем хранения предполагает их стандартизацию, виртуализацию и автоматизацию. «Проблема в том, что стандартных СХД нет, однако в настоящее время ведутся серьезные разработки и создаются программные продукты, так что результаты не заставят себя ждать», — уверен Денис Серов.

По его словам, на самом деле аналоги программно определяемого хранения появились достаточно давно, например, когда к центральной виртуализирующей системе подключались различные СХД. Однако в такой архитектуре возникают узкие места и потенциальные точки отказа. Виртуализация и централизация управления — тоже похожий подход, но при этом не создается единый пул ресурсов хранения и не достигается полная интеграция с приложениями. Хорошо известные облачные сервисы хранения (Google, Amazon, Open Stack и др.) — еще один «пробный камень» на пути к программно определяемому хранению. Наконец, близкий подход — программная эмуляция СХД на серверах. Это недорогое решение, но оно не обладает всеми признаками программно определяемого хранения и не является решением уровня предприятия, считают в EMC.

В EMC называют следующие препятствия на пути к программно определяемым системам хранения: унаследованные традиционные СХД, инертность больших объемов данных, риски перехода на полностью новую платформу.

ЕМС предлагает платформу для программно определяемой СХД, которая обладает функцией абстрагирования ресурсов хранения, позволяет объединить их в единый пул и обеспечивает в масштабе ЦОД автоматизацию всех процессов, связанных с хранением данных. «Задача состоит в том, чтобы сделать СХД «незаметной» для пользователя, но в любом ЦОД уже есть системы хранения, и появление новой неизбежно усложнит инфраструктуру, которая должна быть по возможности простой. Решение ЕМС может включать в себя другие системы хранения, при этом не ограничивая их функциональности и позволяя сохранить уже сделанные инвестиции», — рассказывает Денис Серов. Наряду с использованием как новых, так и существующих платформ важным моментом является минимизация перемещения данных, а также обеспечение различных способов доступа к ним — например, с помощью файлового, блочного, объектного доступа, причем из разных мест и с соблюдением требований безопасности.

Программно определяемая система хранения EMC ViPR (см. Рисунок 4) с помощью API интегрирует СХД разных вендоров, создает виртуальные пулы ресурсов, управляет ими, предоставляет пользователям портал самообслуживания для заказа услуг, реализует распределение ресурсов по требованию. При этом «путь контроля» отделен от «пути данных»: серверы и приложения могут обмениваться информацией с физическими устройствами напрямую, минуя слой виртуализации. Это позволяет использовать расширенные функции, не снижая уровней надежности и производительности комплекса. «Путь данных» реализует сервисы их обслуживания: защиту, резервное копирование, катастрофоустойчивость, различные дополнительные протоколы доступа, миграцию данных и др.

Рисунок 4. EMC ViPR: программно определяемая СХД.
Рисунок 4. EMC ViPR: программно определяемая СХД.

 

Портал позволяет управлять инфраструктурой и конфигурацией системы. Из списка поддерживаемых СХД можно выбрать требуемые системы хранения, задать IP-адреса и учетные данные, после чего СХД добавляются к виртуальному пулу. Затем выполняется регистрация коммутаторов (Cisco или Brocade) и сервисов защиты данных, формирование виртуальных дисковых массивов и выбор портов системы хранения и подключаемых серверов. В результате конечный потребитель соединяется с требуемым ресурсом.

Логические тома автоматически выбираются из различных пулов согласно правилам и получают предпочитаемое QoS. ViPR интегрируется с VMware и OpenStack. Например, через API пулами хранения можно управлять из vCloud Automation Center. Администратор может задать профили хранения, и VMware сама будет использовать доступные ресурсы хранения на тех или иных физических системах. Владельцы приложений могут менять уровни сервиса обслуживания данных и производить другие изменения. Решения принимаются на основе объективных показателей по метрикам производительности.

Помимо самой платформы ViPR, компания EMC предлагает ряд других интегрированных сервисов, включая сервис хранения по требованию (VVOL), активное объектное хранилище (Atmos/VE), архивирование файлового контента (CTA/VE), резервное копирование (Avamar/VE), защиту данных и поддержку катастрофоустойчивости (RP/VE). «ViPR обеспечивает плавный переход к новому способу хранения данных на основе имеющихся ресурсов хранения данных. Выделение необходимых ресурсов становится незаметным для пользователя, а возможности хранения дополняются новыми сервисами, количество которых будет увеличиваться», — заключает Денис Серов.

Ранее VMware уже применяла понятие «программно определяемые СХД» по отношению к VMware vSphere Storage Appliance (VSA) и Virsto — гипервизору для СХД. Очевидно, новые определения модели да и сама терминология еще не устоялись. Однако показательно то, что NetApp уже использует новый термин с целью продвижения объявленной в июне новой версии своей флагманской операционной системы — Сlustered Data ONTAP 8.2. Эта ОС разбивает физическую СХД на ряд виртуальных серверов (Storage Virtual Machine/SVM, ранее Vserver). Поддержка многопользовательской среды и обслуживание СХД осуществляются на основе политик с помощью программных интерфейсов (API) и интеграции приложений. Как заявляют в NetApp, данное решение устраняет ограничения по производительности, готовности и эффективности, характерные для традиционных СХД, позволяя ИТ-отделам адаптировать инфраструктуру хранения данных к меняющимся потребностям бизнеса и приложений без прерывания рабочих процессов. Как ожидается, Clustered Data ONTAP позволит эффективно использовать преимущества программно определяемой СХД, что со временем позволит вытеснить медленные и неэффективные методы организации хранения данных.

Не факт, что предложенная EMC терминология будет столь же широко подхвачена отраслью, как это было в случае с SDN, но подходы к хранению данных, несомненно, станут меняться вместе с эволюцией ЦОД.

Сергей Орлов — ведущий редактор «Журнала сетевых решений/LAN». С ним можно связаться по адресу: sorlov@lanmag.ru.

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF