Центр данных — это нечто большее, чем сумма его компонентов.

Общее положение о том, что целое — это нечто большее, чем просто сумма его составных частей, для центров обработки данных становится основополагающей идеей. Несмотря на наличие самых разных приложений все подобные институты (раньше их называли просто вычислительными центрами) обладают некоторыми общими чертами: они должны надежно функционировать в самых сложных условиях, нуждаются в защите от отказов, а кроме того, требуют достаточно больших инвестиций, которые необходимо использовать максимально экономно.

Ошибочные решения могут привести к быстрому росту издержек, поскольку ни в какой другой области электронной обработки данных не приходится настолько тесно работать профессионалам из самых разных областей. Популярный в области структурированных кабельных систем комбинированный подход по принципу Mix and Match (когда инфраструктура создается на основе разных стандартных компонентов в уверенности, что все вместе уж как-нибудь да заработает) в случае центра обработки данных неизменно терпит провал.

Если в случае традиционных инфраструктур пересекаются интересы только системного администратора да электротехника (да еще иногда монтажника систем отопления, которому надо проложить трубы там, где запланирована прокладка магистрального канала), то в центре обработки данных приходится учитывать куда большее число категорий:

  • электронную обработку данных;
  • электропитание;
  • аварийное питание;
  • заземление и выравнивание потенциалов;
  • систему безопасности;
  • климатизационное оборудование;
  • строительные объекты (двойные полы);
  • защиту от пожаров и пожаротушение.

Уже одна прокладка кабеля является искусством, поскольку в центрах обработки данных огромное количество кабеля. Проводка должна быть упорядоченной в целях соблюдения предписанных радиусов изгиба, причем одновременно следует позаботиться о том, чтобы нижележащие кабели не сдавливались находящимися сверху, поскольку в результате появляется опасность ослабления сигнала. Вдобавок необходимо следить за пожарной нагрузкой, тем более что выбор между безгалогенным (Low Smoke Zero Halogene, LSOH), пленумным и трудновоспламеняемым вариантами часто вызывает множество споров. Наконец, пучки кабелей прокладывают в определенных областях двойного пола (если это предусматривалось проектом), чтобы они не оказывали отрицательного воздействия на воздушные потоки от системы управления климатом и не ухудшили охлаждение прочих систем.

Охлаждение наряду с резервным питанием относится к числу важнейших задач. Все более быстрые серверы и все большая плотность размещения превращают серверные шкафы в электронагреватели. Традиционные концепции охлаждения оказываются несостоятельными. При помощи направленных вентиляторов, посредством которых поток воздуха может подаваться чуть ли не за угол (нечто в этом роде действительно существует), удается добиться мощности охлаждения в 3 кВт — заметное преимущество по сравнению с традиционными 1,5-2 кВт. Однако современное оборудование ИТ выделяет гораздо больше тепла, и рекламный слоган «Горячая новинка» применительно к вычислительным центрам следует понимать дословно: типовой сервер (ультраплоский сервер высотой 4,5 см) вырабатывает уже около 350 Вт тепла, а модульный — еще больше.

Неразумные руководители отделов ИТ, по неопытности или по необходимости размещающие чересчур много устройств на небольшой площади, могут запросто получить тепловыделение 15-25 кВт на каждый шкаф. Обычно эти значения несколько ниже, поскольку никто не станет заполнять распределительный шкаф вплоть до последнего отсека, но производители серверов заботятся о том, чтобы в вычислительном центре не похолодало. Впрочем, изготовители шкафов очень изобретательны: при встраивании в дверь вентиляторов большой мощности можно отводить от 7 до 16 кВт тепла в зависимости от модели, а шкафы с жидкостным охлаждением справляются с тепловыделением в 25 кВт и более. Однако жидкостное охлаждение шкафов нравится далеко не всем, ведь многие еще помнят тот радостный день, когда удалось убрать из зала последние мэйнфреймы с водяным охлаждением. Любая жидкость — это дополнительный риск для вычислительного центра, для снижения которого приходится устанавливать датчики влажности, системы мониторинга и, поступая совсем уж консервативно, даже ванны.

Однако хорошо спланированная система климатизации должна учитывать не только серверные шкафы, но и освещение, и количество сотрудников — ведь человек выделяет в среднем до 100 Вт тепла.

Наряду с охлаждением огромное значение имеет концепция резервного питания, поскольку даже самый современный центр обработки данных совершенно бесполезен, если в него не подается электрический ток. Поэтому в ЦОД необходимо как минимум установить источники бесперебойного питания (ИБП), чтобы работа серверов и коммутаторов могла поддерживаться, по крайней мере до тех пор, пока не будут сохранены все данные и корректно остановлены все серверы. Тот, кому уже доводилось провести бессонную ночь за восстановлением сервера после его спонтанного выключения, проголосует обеими руками за ИБП.

Ни один крупный центр обработки данных не обходится без генераторов аварийного тока, поэтому ИБП должен сохранять работоспособность систем до тех пор, пока генератор не начнет вырабатывать достаточный ток. Важно не забыть запасти нужное количество дизельного топлива!

Главный вопрос: где поставить ИБП — в серверном помещении или в отдельной комнате? Конечно, если бы в центре обработки данных все оборудование устанавливалось рядом, тогда и мониторинг всех систем сразу, и их защиту было бы осуществлять намного удобнее. Но ИБП также выделяет тепло, которое следует принять в расчет при определении параметров системы климатизации. Если по причинам надежности и отказоустойчивости вычислительного центра система охлаждения подключается к источнику бесперебойного питания, то, чтобы сервер во время длительного отказа не перегревался, ее мощность (а это немалая величина) необходимо учитывать при выборе ИБП. Иначе говоря, надо приобрести более мощный источник, что, в свою очередь, опять приводит к увеличению количества вырабатываемого тепла — далеко не тривиальная задачка!

«Вычислительный центр с самого начала должен планироваться и координироваться профессионалами, — подчеркивает Стив Стрейндж, технический директор Anixter в регионе ЕМЕА, дистрибьютора и партнера IBM, у которого есть собственная сертифицированная UL лаборатория для проведения тестирований. — Лишь при грамотном согласовании всех областей заказчик получает тот результат, на который он рассчитывал. В этом вычислительный центр похож на коробку передач: неправильная или низкокачественная шестеренка, установленная не в том месте, способна привести к ужасным последствиям».

Но в центре и множество более простых областей, о которых обычно редко задумываются, требуют к себе повышенного внимания: достаточны ли статические характеристики пола, чтобы выдерживать соответствующие нагрузки? Какой должна быть минимальная высота двойного пола? Каков должен быть размер ячеек для заземления и выравнивания потенциалов? Где необходимо провести кабели и в каких местах двойного пола они менее всего мешают воздушным потокам?

В Европе эти вопросы предполагается рассмотреть в стандарте EN 50173-5, первый проект которого уже существует. До тех пор пока он не опубликован в окончательной редакции, в качестве ориентира можно использовать американский стандарт EIA/TIA-942. В нем определяются четыре разные ступени в отношении готовности и безотказности, так называемые уровни. Необходимо тщательно взвесить, какая из них наиболее подходит предприятию, поскольку переход с первого уровня на четвертый приводит к удвоению общих затрат.

TIA содержит подробную информацию и о системе безопасности. Само собой разумеется, что за окружающими условиями — температурой, воздушными потоками и влажностью воздуха — необходимо следить и сохранять информацию о них. Видеомониторинг предусмотрен начиная со второго уровня, дополнительно рекомендуется биометрический контроль доступа: важно знать, какой ущерб может быть нанесен до того, как выяснится, что карта с кодом утеряна?

Однако этих мер далеко не достаточно. Система безопасности должна опираться на законченную и согласованную с ИТ концепцию. Например, соответствующие устройства мониторинга непрерывно записывают видеосигнал и сохраняют последние 10 с перед наступлением события. Лишь таким образом можно установить, кто и чем занимался в определенное время. Соответствующие дополнения предлагают возможность распознавания и обработки нестандартных ситуаций до нанесения какого-либо вреда. Внутренние опасности кажутся страшнее внешних далеко не случайно. Благодаря оповещению при помощи всплывающих окон, электронной почты или SMS персонал сможет быстро и гибко среагировать на событие.

Однако в вычислительных центрах, в отличие от других областей ИТ, необходимо учитывать и мелочи, которые здесь влияют на очень многое. Уже простейшие вещи, к примеру традиционные стяжки для объединения кабелей в пучки, из-за чрезмерного сдавливания кабеля могут привести к повышенному количеству ошибочных битов. Между тем поиск и устранение таких ошибок занимают довольно долгое время. Весьма изобретательные решения, в частности стяжки для кабелей «на липучках», системы прокладки кабеля с обеспечением фиксированного радиуса сгиба, трубы для прокладки кабеля, контейнеры для его излишков или перпендикулярные коммутационные поля, обеспечивают большую надежность, наряду с устройствами для прокладки кабеля с помощью роликов, а также претерминированными компонентами (Plug-and-Play), применяемыми уже при инсталляции. Именно решения Plug-and-Play получают все большее распространение в средних и малых центрах обработки данных. Время установки и демонтажа, замены блоков и прокладки новых кабелей сокращается до минимума, что весьма привлекательно, поскольку ни в одном ЦОД не любят заниматься переоснащением.

Интеллектуальные системы управления инфраструктурой пользуются растущей популярностью. И по праву: списки соединений обновляются вовремя в автоматическом режиме, подключение неизвестного устройства автоматически ведет к немедленному отключению соответствующего порта, задания по перекоммутации можно планировать заранее, а выполнять и завершать в точно определенное время. Неправильные подключения уходят в прошлое, поскольку такие системы регистрируют их в реальном времени и выдают соответствующее предупреждение или сигнал тревоги. Администраторам больше не придется мучиться с длинными перечнями соединений (которые в большинстве случаев не соответствуют реальному состоянию) — все действия при перемещении сотрудника для предоставления полагающихся ему услуг можно осуществить с персонального компьютера одним щелчком мыши: система управления автоматически составляет и отправляет рабочее задание о том, какой кабель и где необходимо подключить или отключить. Как правило, такие системы могут интегрироваться в уже имеющиеся системы управления сетями: HP OpenView, IBM Tivoli или CA Unicenter.

СОГЛАСОВАНИЕ ОТДЕЛЬНЫХ ЧАСТЕЙ ПРЕЖДЕ ВСЕГО

Вывод столь же прост, сколь и выразителен: ни в какой иной области ИТ точное согласование мероприятий и компонентов не имеет такого большого значения, как в центрах обработки данных. И нигде так не нуждаются в самых разнообразных специалистах. При этом отдел ИТ предприятия вынужден обращаться за поддержкой к компетентным партнерам, поскольку слишком велико количество вариантов и чересчур дорого обходятся неправильные решения. Лишь после объединения всех областей можно добиться эффективного использования с приемлемыми издержками.

Дирк Трэгер — технический консультант по инфраструктурным решениям немецкого отделения компании Anixter.


? AWi Verlag

Поделитесь материалом с коллегами и друзьями