Долгое время каждый центр обработки данных проектировался отдельно. На этапе предварительного планирования учитывались все конкретные требования и условия клиентов, и в результате создавался уникальный в своем роде ЦОД, оснащение и инфраструктура которого были нацелены исключительно на выполнение запланированных задач. Но сейчас такой подход неприемлем: концепции, требующие больших усилий на проектирование, реализацию и эксплуатацию, уже не соответствуют стандартизированным сервисам, предоставляемым современными серверами.

ПОСТОЯННО ЛИШЬ НЕПОСТОЯНСТВО

За последние несколько лет требования, предъявляемые к централизованным компьютерным системам, значительно поменялись. В эпоху технологий Web 2.0 предоставляемые в ЦОД сервисы далеко не так уникальны, как еще несколько лет назад. Помимо специализированных приложений и услуг, которые меняются от предприятия к предприятию, существует значительный (и постоянно растущий) процент типовых элементов. Стандартизированная инфраструктура подачи питания и охлаждения обеспечивает работу стандартизированных сервисов на стандартизированном аппаратном обеспечении. Большинство ЦОД становятся похожими друг на друга — по крайней мере, в общих чертах.

Начало этой тенденции положила виртуализация, благодаря которой стало возможно отделить приложения от аппаратного обеспечения, используемого для их выполнения. В качестве побочного эффекта от этого процесса значительно повысилась загруженность серверов, поскольку на одном физическом сервере зачастую работали сразу несколько виртуальных машин. Теперь специальные алгоритмы позволяют автоматически перераспределять виртуальные машины и отправлять их на те устройства, где в данный момент больше всего свободных ресурсов. Благодаря этому предприятия смогли осуществить консолидацию своих серверов: в тех инфраструктурах, где у систем охлаждения и подачи питания имелись достаточные резервы, на смену небольшим одиночным системам пришли крупные модульные серверы (Blade Server). В более старых центрах обработки данных, спроектированных на рубеже тысячелетий, допустимая максимальная нагрузка составляла приблизительно один киловатт на квадратный метр. К настоящему времени реальными стали значения в десять раз больше.

Одно из требований связано с облачными вычислениями (Cloud Computing), которые ниспровергли представление о том, что вычислительные мощности должны располагаться в помещениях, принадлежащих самим предприятиям. Провайдеры облачных услуг предоставляют готовые вычислительные ресурсы под ключ, а для их использования достаточно лишь иметь высокоскоростное подключение к Интернету. Согласно данным Глобального индекса развития облачных технологий Cisco Global Cloud Index, через три года примерно две трети всего трафика данных будут идти через облачные ЦОД.

Таким образом, к 2016 году облачный трафик составит 64% от общего объема данных, проходящего через центры обработки данных, тогда как в 2011 году этот показатель не превышал 39%. В странах Европы, Ближнего Востока и Африки интерес к облачным вычислениям даже выше, чем в мире в целом: здесь к 2016 году ожидается девятикратное увеличение объемов облачного трафика — до 190 Эбайт.

НЕОБХОДИМОСТЬ ДЕЙСТВОВАТЬ В СВЯЗИ С БОЛЬШИМИ ДАННЫМИ

Огромные объемы находящихся в обработке данных уже получили собственное собирательное название. Под термином «Большие Данные» (Big Data) подразумеваются особо крупные массивы информации, с которыми традиционные базы данных и инструменты для управления ими не способны справиться или справляются недостаточно хорошо. Такие данные могут поступать, к примеру, со страниц социальных сетей или с мобильных конечных устройств, непрерывно производящих или протоколирующих информацию, которая затем оседает в централизованных системах хранения данных.

Одновременно растет и разнообразие сохраняемых файловых форматов, в числе которых могут быть изображения, видеозаписи, ссылки или документы. Для обработки всех этих данных требуются значительные емкости хранения и вычислительные мощности — причем оба ресурса должны предоставлять ЦОД, но на это способны лишь правильно организованные центры обработки данных.

Такие ЦОД имеются лишь у немногих компаний. Согласно результатам исследования, проведенного в конце 2012 года аналитиками IDC, предприятия сталкиваются со множеством трудностей, мешающих использованию Больших Данных. Первым пунктом в перечне этих препятствий с большим отрывом идет существующая инфраструктура ИТ: 34% опрошенных считают, что она обладает недостаточной масштабируемостью. Таким образом, критике подвергается тот же самый фактор, который ранее излишне усложнял внедрение виртуализации на предприятиях, а именно статичные ЦОД, с трудом поддающиеся наращиванию и расширению. Чтобы справиться с ростом объемов данных, разнообразием их типов и источников, а также извлечь пользу для своих бизнес-процессов, компаниям приходится самостоятельно предпринимать необходимые меры. Как и в случае с виртуализацией, они ожидают от аналитики Больших Данных прежде всего оптимизации затрат: для 45% побудительным фактором является экономия.

ПРЕИМУЩЕСТВА ДЛЯ ПОСЛЕДОВАТЕЛЕЙ

А как же справляются с обработкой Больших Данных те компании, для которых слово «большие» подразумевает совершенно иной размах, чем для «нормальных» предприятий? Так, Google, Facebook и Amazon ежедневно имеют дело с такими объемами информации, с которыми большинство компаний среднего размера не столкнется за всю историю своего существования. По меркам Интернета эти гиганты совсем недавно занимались планированием своих ЦОД, однако еще на этапе проектирования они уделяли большое внимание обеспечению высокой масштабируемости, максимальной отдаче от инвестиций и энергоэффективности своих систем. В результате их центры обработки данных представляют собой ангары, где установлены ряды стандартизированных контейнеров с серверным оборудованием, способные по первому требованию предоставить гигантские вычислительные мощности с высокой экономической эффективностью.

Судя по всему, именно унификация — путь к ЦОД будущего. Это и не удивительно, если внимательно рассмотреть все разнообразные аспекты стандартизации. Возможности для ее реализации имеются практически во всех областях, начиная от серверных шкафов и заканчивая всеохватывающими системами управления инфраструктурой.

Как правило, на самом нижнем уровне ЦОД располагаются 19-дюймовые монтажные стойки, в которых размещаются серверы и другое аппаратное обеспечение. Если клиент определился с моделью стойки, задача администраторов и отдела по техническому обслуживанию значительно упрощается. Сделанный выбор дает о себе знать уже на стадии планирования новых рядов стоек: при использовании одной определенной модели можно точно рассчитать, сколько 19-дюймовых стоек поместится в заданное пространство. Механические шлюзы для подвода и подключения кабелей находятся в одних и тех же местах, так что к установке новых стоек можно подготовиться заранее. Кроме того, благодаря оптимальной совместимости стоек одного вида их удается разместить более компактно и тем самым лучше использовать доступные площади. В результате обеспечивается более высокая плотность размещения ресурсов при уменьшении их общего объема.

На этапе внутреннего оснащения стоек стандартизация тоже пойдет на пользу: так как уже известно, сколько места потребуется для каркаса, кабелей и других механических элементов, проектировщики смогут точно подсчитать количество свободных монтажных единиц в каждой стойке, доступных для установки аппаратного обеспечения. Консультанты по оснащению ЦОД также рекомендуют придерживаться стандартов при заполнении стоек оборудованием.

Не стоит оснащать все стойки одинаково — имеет смысл разделить их по характеристикам на несколько категорий (до четырех). Так, одна из них может предназначаться для смешанного оснащения одиночными серверами и одним или двумя модульными серверами с необходимой сетевой инфраструктурой. Серверы, расположенные в этих стойках, могут применяться, к примеру, для хостинга специализированных приложений, используемых определенными отделами предприятия. Стойки на другом конце спектра оснащаются только модульными серверами и предназначены для поддержки работы высокопроизводительных приложений. Благодаря такому разделению на четыре фиксированные категории, администраторам легче планировать установку новых стоек и обеспечивать достаточную гибкость при различных требованиях к производительности систем.

РАЗНЫЕ ГРАНИ СТАНДАРТИЗАЦИИ

Надежность и эффективность в стандартном формате
Рисунок 1. С помощью системы ИТ-стоек TS IT,  представленной на выставке CeBIT еще в 2012 году, компания Rittal намерена удовлетворить все требования, предъявляемые к гибким модульным сетевым и серверным стойкам.

На шаг дальше намеревается пойти компания Rittal со своим стандартизированным модульным ЦОД Rimatrix S: она дополняет свое семейство продукции готовыми стандартизированными модулями из серверных стоек (см. Рисунок 1), коммутационных шкафов, систем климатизации, электропитания и мониторинга в соответствии с принципом конструктора. Несколько серверных модулей можно объединить в масштабируемые ЦОД с мощностью в диапазоне от 20 до 450 кВт. Конфигурация стоек выбирается произвольно, но общие типовые характеристики модулей, например их габаритные размеры, а также точки подсоединения питания, охлаждения и сетевых подключений фиксированы. Такой подход способствует значительному сокращению сроков проектирования и установки нового оборудования.

Что касается практических вопросов, связанных с установкой систем, то здесь проявляется одно из основных преимуществ стандартизации: для монтажа всех блоков используются одни и те же инструменты или одинаковые принципы крепления. Горизонтальные перегородки поместятся в любую стойку, то же самое можно сказать о дверцах или боковых стенках. Упрощаются процессы заказа и складского хранения элементов — поскольку предприятию требуется меньше запасных частей, запасы можно свести к минимуму.

Преимущества однотипного оснащения проявляются и применительно к дополнительным возможностям: так, все стойки можно оснастить одними и теми же запорными механизмами. С помощью универсальных ключей, подходящих ко всем дверям, удастся значительно облегчить доступ для администраторов и техников. Еще больше эти преимущества проявятся при использовании электронных замков. В таком случае возможно централизованное управление стойками, а протоколы, отслеживающие санкционированный и несанкционированный доступ, способны охватить все без исключения стойки в ЦОД.

Электропитание и охлаждение — две ключевые системы для функционирования центра обработки данных. Стандартизация в этой области способна обеспечить высокий синергетический эффект, поскольку для всех стоек будет применяться один и тот же принцип подачи ресурсов. Традиционно климатизация в ЦОД осуществляется посредством централизованных генераторов холода, что позволяет повысить эффективность (по сравнению с использованием нескольких одиночных систем) и облегчает масштабирование. По мере роста плотности мощности на одну стойку ранее распространенный метод охлаждения с подачей воздуха через двойной пол стал заменяться на прямое охлаждение посредством теплообменников в рядах стоек. Таким образом, теплообменники придвигаются все ближе к источникам тепла и тем самым достигается значительное повышение эффективности систем охлаждения.

Однотипные стоечные системы — одна из важнейших предпосылок для реализации такого охлаждения, поскольку теплообменники обычно монтируются либо на задние двери, либо между стойками. Как правило, их можно установить и в разнотипные стойки, но это влечет за собой дополнительные расходы и усилия, что выражается в увеличении времени простоя в связи с проведением монтажных работ.

ЭФФЕКТИВНАЯ ИЗОЛЯЦИЯ КОРИДОРОВ

Надежность и эффективность в стандартном формате
Рисунок 2. Когда все ряды стоек в ЦОД одинаковы, их изоляция облегчается. Чтобы холодный воздух, подаваемый к серверам, не смешивался с отработанным горячим, в современных ЦОД эти зоны изолируются с помощью стен, доходящих до потолка.

Если ряды стоек одинаковы, то облегчается их изоляция с целью предотвращения смешения холодного воздуха, подаваемого к серверам, и отработанного горячего (см. Рисунок 2). В современных ЦОД коридоры изолируются с помощью стен и перекрытий, причем отдельные элементы приходится адаптировать к имеющимся конструктивным решениям. Однако чем однороднее исходная ситуация, тем качественнее можно разделить холодные и горячие коридоры и тем быстрее выполняются работы по их перестройке.

В дальнейшем желательно стандартизировать и климатическую технику: несколько производителей уже работают над единым сводом правил. При этом ЦОД и его среда рассматриваются как единая система, одна из основных задач которой заключается в обеспечении максимально возможной энергоэффективности, а значит, и в получении финансовой выгоды. Так, при формировании стратегии охлаждения начинают учитываться такие факторы, как температура окружающего воздуха.

Когда наружная температура опускается ниже заданного значения, ЦОД может полностью перейти на так называемое естественное охлаждение (Free Cooling) без использования компрессоров. Для обеспечения высокой энергоэффективности ряды стоек, на серверы которых приходится меньше нагрузки, должны получать меньше холодного воздуха, чем ряды с полной нагрузкой. Однако для этого необходимо наличие централизованной инстанции, такой как ПО для управления инфраструктурой ЦОД (Datacenter Infrastructure Management, DCIM), где осуществляется обработка всех данных, получаемых от датчиков и исполнительных элементов, размещенных в ЦОД, и откуда имеется доступ ко всем активным компонентам управления. Подобное решение можно реализовать с умеренными издержками только в том случае, если используемые компоненты будут максимально идентичными.

Надежность и эффективность в стандартном формате
Рисунок 3. Защиту от сбоев обеспечивают системы ИБП. Первый шаг на пути к стандартизации — замена небольших устройств ИБП, установленных в каждой стойке, на централизованную систему.

Подача электропитания — второй критически важный ресурс для ЦОД. Стандартизация и здесь способна обеспечить значительные преимущества, особенно в отношении доступности и избыточности систем. Отказоустойчивость работы ЦОД достигается при помощи систем ИБП. Первым шагом к стандартизации может стать замена небольших ИБП, установленных в каждой стойке, на одну большую централизованную систему, что позволит значительно сократить издержки на ее техническое обслуживание (см. Рисунок 3). Запасные детали придется приобретать только для одной системы, а в распоряжении специалистов будут все данные мониторинга. Кроме того, высвободившиеся монтажные единицы можно использовать для установки дополнительных серверов. Еще одно преимущество централизованного предоставления питания — возможность оптимального масштабирования производительности ИБП, в то время как одиночные системы приходится рассчитывать на теоретически возможный максимум для каждой стойки, даже если с течением времени поменяются типы установленных серверов и потребляемая ими мощность.

Ранее в ЦОД, как правило, применялись большие монолитные ИБП, причем из соображений обеспечения избыточности устанавливались две такие системы. Это хорошее решение для централизованного предоставления питания, но не для обеспечения высокой энергоэффективности. Во-первых, КПД обоих ИБП был далек от оптимальных значений, так как устройства функционировали с малой нагрузкой. Во-вторых, такие монолитные системы практически невозможно масштабировать. Если требовалось поддерживать большую нагрузку, чем предусматривалось на стадии проектирования, оставалось только одно решение: замена оборудования на более производительную систему.

ЦЕНТРАЛИЗОВАННЫЕ МОДУЛЬНЫЕ ИБП ДЛЯ ЛУЧШЕЙ МАСШТАБИРУЕМОСТИ

Справиться с этой проблемой помогут модульные расширяемые системы ИБП, которые можно дооснащать силовыми модулями. Как правило, в таких системах избыточность организуется по принципу n+1, то есть допускается полный отказ одного из модулей. Общая производительность всей системы рассчитывается таким образом, чтобы оставшиеся модули могли справляться с существующей нагрузкой. При этом в качестве положительного побочного эффекта улучшается КПД систем. Если все модули ИБП эксплуатируются почти при полной нагрузке, их энергоэффективность находится на оптимальном уровне. К тому же модульные ИБП очень легко масштабируются: добавив в конструктив дополнительные модули, можно повысить общую производительность устройства.

Современный ЦОД — это не просто место сосредоточения 19-дюймовых стоек с оборудованием. Его сотрудникам приходится контролировать и администрировать большое количество активных элементов (датчики окружающей среды, системы энергоснабжения, климатические установки, а также средства безопасности и управления). Чем полнее эти элементы стандартизированы, тем проще нормализовать форматы данных и обеспечить их обработку посредством решений DCIM. В результате администраторы получают возможность не только отслеживать такие параметры, как температура в помещении, но и контролировать доступ к оборудованию, что значительно облегчает поиск возникающих ошибок и их причин. Если у компании не один ЦОД, то администраторы смогут при умеренных издержках оценить данные, поступающие с других площадок, и дистанционно управлять происходящими в них процессами. Результаты, полученные в ходе анализа этой информации, помогут разработать общую концепцию управления ЦОД.

На более высоком уровне тоже не обойтись без данных, передаваемых системами управления и контроля. Для достоверных расчетов окупаемости инвестиций необходимо иметь исчерпывающие сведения о работе ЦОД. Так, директорам информационной службы (Chief Information Officer, CIO) требуются графики зависимости эффективности ЦОД от нагрузки на серверы и количества ресурсов, необходимых для их охлаждения. Такие показатели для отдельных серверных стоек, рядов и всего ЦОД можно получить с приемлемыми накладными расходами, только если данные, полученные от отдельных систем, экстраполируются на все оборудование благодаря стандартизации.

СТАНДАРТИЗАЦИЯ ДЛЯ ВСЕХ?

Широкое внедрение стандартизации легче предусмотреть на этапе планирования нового ЦОД. Но часто внедрению новых однотипных систем препятствует старое аппаратное обеспечение. Число ЦОД, не способных соответствовать современным требованиям и нуждающихся поэтому в перестройке, постоянно растет.

Предприятиям с уже существующей инфраструктурой нужно подойти к решению этой задачи последовательно и без спешки. С течением времени старое оборудование достигает предела своих возможностей, и тем самым формируются условия для полного обновления отдельных систем, к примеру ИБП.

РЕАКЦИЯ НА ТЕПЛОВУЮ НАГРУЗКУ

Старые стойки тоже не должны использоваться вечно. При планировании масштабных изменений в отношении серверного аппаратного обеспечения, нередко оказывается, что имеющиеся стойки из-за своей конструкции больше не способны справляться с тепловой нагрузкой или выдерживать вес нового оборудования. В этой ситуации может быть оправдана замена сразу всего ряда стоек, даже если на данном этапе изменения коснулись бы только его части. Здесь, как и при любом другом виде стратегического планирования, важно определить, какие задачи необходимо решить в ближайшее время, а какие — отложить на долгосрочную перспективу. Когда главные цели стандартизации уже намечены, при каждом назревающем изменении можно предпринимать небольшие шаги для оптимизации ЦОД.

ТЕНДЕНЦИИ ОПРЕДЕЛЯЮТСЯ КРУПНЫМИ ИГРОКАМИ

Компании, предъявляющие чрезвычайно высокие требования к производительности своих ЦОД и плотности размещения оборудования, уже сейчас показывают, как будет выглядеть будущее. Так, Microsoft именует свой чикагский комплекс центром обработки данных четвертого поколения. Он практически полностью состоит из контейнеров, в каждом из которых находится от 1,8 до 2,5 тыс. серверов, а стандартизация доведена до максимума. Системы от компании Rittal теперь позволяют и компаниям среднего размера воспользоваться всеми преимуществами стандартизированных концепций. Самый маленький вариант (Single 6) позволяет установить оборудование с рассеиваемой мощностью до 60 кВт и при необходимости осуществить практически неограниченное масштабирование. Вместе с инновационными концепциями климатизации и электропитания такие решения помогают понять, в каком направлении будут развиваться ЦОД в ближайшие годы.

Бернд Ханштайн — руководитель отдела менеджмента ИТ-продуктов в компании Rittal.

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF