РОБ САЛМОН полагает, что вскоре ключевыми станут проблемы создания распределенной универсальной инфраструктуры хранения, унифицированной масштабируемой архитектуры и Большие Данные
РОБ САЛМОН полагает, что вскоре ключевыми станут проблемы создания распределенной универсальной инфраструктуры хранения, унифицированной масштабируемой архитектуры и Большие Данные

Экономический кризис не помешал росту оборотов компании NetApp, которая за его время довела свою долю рынка до 15,5% и вышла на второе место среди производителей систем хранения, обойдя при этом IBM (12,3%), HP (10,0%) и Dell (7,4%) и отставая только от EMC (31,2%). Переход на второе место определил содержание нынешней рекламной кампании — в ее рамках NetApp спонсировала покорение вершины K2, которая хоть и ниже Эвереста на 200 м, но подъем на нее считается намного более сложным. На конец 2010 года на Эверест взошли 2,7 тыс. человек, а на К2 — всего 302.

Открывая московский форум NetApp Innovation, Роб Салмон, исполнительный вице-президент компании, отвечающий за работу с клиентами, разделил 19 лет истории NetApp на четыре этапа. На первом основное внимание уделялось созданию файловых серверов. С 2000 года в фокусе оказались производительные вычисления, затем наступило время работы над оптимизацией выполнения приложений. На нынешнем, четвертом этапе в условиях роста объемов хранимых данных и недостатка финансирования необходимо оптимизировать использование оборудования. Впереди — пятый этап, на котором ключевыми станут проблемы создания распределенной универсальной инфраструктуры хранения, унифицированной масштабируемой архитектуры с использованием ресурсов локальных и глобальных облаков и, конечно же, Большие Данные.

С основным докладом выступил Мэтт Уоттс, который занимает должность стратегического советника NetApp в регионе EMEA, а, по сути, является корпоративным техническим евангелистом. По его словам, секрет успеха NetApp заключается в слове «оптимизация». Потребность в оптимизации хранения возникает в силу того, что бюджеты компаний на закупку новых систем почти не растут, а количество хранимых данных ежегодно удваивается. Очевидно, что в первую очередь справиться с этим ростом помогает объективный фактор, увеличиваются емкости дисков, а их стоимость падает. Еще семь-восемь лет назад накопитель емкостью 1,5 Тбайт казался гигантом, сегодня для хранения этого объема теоретически достаточно одного диска. На практике из-за необходимости обеспечить надежность хранения данных и высокую скорость доступа к ним приходится создавать множественные копии одних и тех же данных. Увеличению числа копий способствуют такие технологии, как, например, получающие все более широкое распространение виртуальные десктопы; если их в организации несколько тысяч и каждый хранит порцию одних и тех же данных, то это добавляет немалую нагрузку на системы хранения.

Есть два резерва оптимизации, один на инфраструктурном уровне, другой на уровне данных. Что касается первого, то здесь есть множество различных технологий, среди них динамическое резервирование (Thin Provisioning), эффективные снэпшоты (Space Efficient Snapshot Technology), виртуальные клоны (Virtual Clones), «тонкое» реплицирование (Thin Replication), массивы с двойной точностью RAID-DP, использование дисков SATA с виртуальным делением на уровни.

На уровне данных применяются технологии компрессии и дедупликации. Эти технологии работают в средах SAN и NAS, они применимы к разным уровням хранения и к системам хранения разных производителей. Вокруг дедупликации сейчас развернулась серьезная дискуссия; по данным Уоттса, в 2010 году средствами дедупликации удалось сэкономить примерно 1 экзабайт дискового пространства, это эквивалентно 5,5 млрд евро.

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF