Множество журнальных публикаций и докладов на конференциях посвящено тому, как правильно построить новый современный корпоративный ЦОД тем компаниям, у которых его никогда не было. Но у многих уже есть собственный ЦОД, причем нередко ему 10 лет, а то и более. Между тем развитие бизнеса не прекращалось, а значит, росли и потребности в ИТ-сервисах. В таком случае существует немалая вероятность того, что возможностей старого ЦОДа не хватает и требуется реконструкция. Как ее провести, чтобы не помешать текущей деятельности предприятия?

ЧТО ИМЕЕМ

Для примера рассмотрим типовой корпоративный центр обработки данных образца середины прошлого десятилетия — «сферический ЦОД в вакууме». Он выглядит приблизительно так, как на рис. 1. При грамотном подходе в таком машинном зале десять лет назад можно было разместить 14 серверных стоек, организовать их охлаждение путем подачи воздуха через фальшпол и даже установить один резервный кондиционер. Высота фальшпола обычно составляла около полуметра, под ним располагались лотки для кабелей.

Рис. 1. Схема типового корпоративного центра обработки данных образца середины прошлого десятилетия
Рис. 1. Схема типового корпоративного центра обработки данных образца середины прошлого десятилетия

 

Архитектура решения выбиралась таким образом, чтобы в зале можно было разместить максимально возможный объем оборудования с суммарным энергопотреблением 42 кВт, что эквивалентно актуальной на тот момент энергетической плотности 3 кВт на шкаф. Коэффициент PUE в таких ЦОДах равен примерно 2, поэтому полная потребляемая мощность составляет около 84 кВт. ИБП с батареями установлены в отдельной электрощитовой и занимают там определенное место (мы обсудим этот вопрос позднее). Будем считать, что все сделано как следует и для ИБП предусмотрено резервирование 2N. Десять лет назад использование в корпоративных ЦОДах систем мониторинга и управления ЦОДом (DCIM) не считалось приоритетным, на реализации СКС старались экономить, поэтому исходим из того, что такие системы отсутствовали К слову, многие заказчики до сих пор считают, что проложить индивидуальные кабели до оборудования дешевле, чем сразу сделать полноценную СКС в ЦОД.

Так почему же изначально хороший ЦОД стал со временем плохим? За прошедшие с момента ввода в эксплуатацию годы потребности компании возросли: пользователей стало больше, как и ИТ-сервисов, для их поддержки требуется установка все более производительных серверов, коммутаторов, маршрутизаторов, межсетевых экранов. Однако из-за ограничений ЦОДа по мощности в каждом шкафу можно разместить только одну блейд-корзину, да и ту нельзя заполнить до конца, не говоря уже о том, чтобы на оставшееся свободное место установить активное оборудование. Таким образом, имеющиеся шкафы используются нерационально.

Постоянная прокладка новых кабелей (сначала для Ethernet на 100 Мбит/с, потом для 1 Гбит/с, затем для 10 Гбит/с) привела к переполнению кабельных трасс и путанице. А между тем уже пора бы переходить на 40 Гбит/с… Снова наступил срок замены аккумуляторов в ИБП, вентиляторы в кондиционерах изношены… В общем, инженерные системы ЦОДа выработали свой ресурс и риск отказа оборудования довольно высок.

ПОСТАНОВКА ЗАДАЧИ

Итак, волевое решение принято: ЦОД нуждается в модернизации. Но чтобы достичь цели, надо...

Это не вся статья. Полная версия доступна только подписчикам журнала. Пожалуйста, авторизуйтесь либо оформите подписку.
Купить номер с этой статьей в PDF