В NetApp оставались верны накопителям типа NAS на протяжении двух десятилетий
В NetApp оставались верны накопителям типа NAS на протяжении двух десятилетий

Известная истина — из компьютерных технологий почти ничего не умирает навсегда, подавляющая часть продолжает жить в новой ипостаси. Тому есть множество примеров, среди них и системы хранения данных, подключаемые непосредственно к серверам (Direct Attached Storage, DAS). Еще недавно не вызывал сомнения тот факт, что решения данной категории уже в близком будущем уступят свое место системам хранения, подключаемым к сети (Network Attached Storage, NAS), и сетям хранения (Storage Area Network, SAN).

Но условия изменились, и интерес к DAS возродился, однако теперь они предстают в совершенно иной, чем прежде, форме, под именем Shared DAS, то есть DAS с возможностью разделения доступа. Оставаясь физически привязанной к одному или нескольким серверам, такая система хранения может предоставлять свои ресурсы множеству компьютеров. Неожиданный возврат к DAS стимулирован распространением приложений, основанных на распределенных базах данных, подобных Hadoop, где узлы кластера, поддерживающего такое приложение, могут подключаться к массиву посредством SATA, SAS, SCSI или Ethernet, но в любом случае напрямую, а не по сети. Архитектура Shared DAS исключает необходимость в каких-либо коммутаторах.

Одной из первых новую тенденцию подхватила компания NetApp, обозначив ее сначала семейством продуктов E-Series Platform, а в мае представив новую систему E5400 Storage System, опирающуюся на наработки, недавно приобретенные вместе с компанией Engenio. Для NetApp это исключительно важная веха. Напомним, компания в свое время стартовала с накопителями типа NAS, которые называли файлерами (filer), и оставалась верна этому сегменту рынка на протяжении всей своей истории. Сегодня, 20 лет спустя, компания запускает новый класс устройств, получивших рабочее наименование «хадупер» (hadooper), которые созданы в расчете на большие данные (Big Data) и на создание инфраструктур для большой аналитики (Big Analytics).

И все же и в 2011 году NetApp сохраняет свое кредо, продолжает занимать собственную, относительно узкую нишу, четко выделяя свою роль в общем разделении ИТ-труда. Вэл Берковичи, главный блогер компании, по аналогии называет эту нишу Big Content, ее формирование объясняя тем, что создание систем хранения, адаптированных к требованиям Hadoop, позволяет строить сбалансированные системы для работы с гигантскими объемами данных.

Первые реализации Hadoop строились на обычных Linux-кластерах, совмещающих функции хранения и обработки данных, и, как всегда в таких случаях, возникали проблемы совмещения электронной природы процессоров с механической природой жестких дисков. В частности, в подобных системах оказывалось очень велико время восстановления после сбоев, что неприемлемо для критически важных приложений, на которые сегодня распространилась область применения Hadoop. Во избежание конфликтов следует развести процессоры и диски.

Именно с этой целью в NetApp предложили решение Hadoop Storage Solution, на порядки уменьшающее время восстановления после сбоя систем хранения. Кроме того, системы семейства NetApp E-Series позволяют создавать эффективные дисковые массивы для узлов Hadoop, увеличивая скорость обмена и снижая задержки. Еще под маркой Engenio такие решения поставлялись на условиях OEM-соглашений через Dell, IBM, Oracle, Rackable Systems (SGI) и Teradata.

E5400 Storage System обладает всеми необходимыми характеристиками для использования в качестве Shared DAS; дисковый массив объемом 120 Тбайт обеспечивает обмен данными со скоростью 6 Гбайт/с и готовность 99,999%. В E5400 компактно установлено шестьдесят 3,5-дюймовых дисков NL-SAS емкостью 2 Тбайт каждый (дисками NearLinear-SAS называют диски SATA корпоративного класса с интерфейсом SAS). Поддерживается RAID уровней 0, 1, 3, 5, 6 и 10.

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF