Климатизация ВЦ как единое решение.

Все более широкое использование серверных «лезвий» приводит к необходимости отвода теплоты не только из стойки, но и из комнаты. Пользователи вычислительных центров поневоле оказываются в положении цугцванга. Для обеспечения готовности на уровне 99% при приемлемой стоимости обслуживания нужны модульные масштабируемые интеллектуальные решения климатизации.

Рисунок 1. Охлаждение модульных серверов: полностью оснащенный серверный шкаф вырабатывает до 10 кВт — и более — тепла.

Будь это серверная комната небольшой корпоративной сети или крупный вычислительный центр — везде пользователи нуждаются в адаптации их систем вследствие растущих требований к производительности и недорогому управлению. Поставщики аппаратного обеспечения стремятся оправдать ожидания рынка и выпускают компактные решения. Плотность установки повышается: серверные «лезвия» позволяют достичь еще большей концентрации вычислительной мощности, но вместе с этим неизбежно повышаются и тепловые потери.

Шкаф с серверными «лезвиями» теряет до 10 кВт и больше (см. Рисунок 1). Это экстремальное выделение теплоты вынуждает пользователей предпринимать ограничительные меры, в результате чего общая мощность снижается: во-первых, при сильном перегреве возникает угроза системных отказов и дорогостоящих простоев, что недопустимо на производстве или в области разработок; во-вторых, повышение температуры на 100C сокращает срок службы проводников вдвое.

КЛИМАТИЗАЦИЯ КАК РЕШЕНИЕ МНОГОПЛАНОВОЙ ПРОБЛЕМЫ

Поэтому работоспособность серверных систем все больше зависит от обеспечения оптимального климата в помещении. Выделяемую энергию необходимо отводить от компонентов и от стойки. Традиционные вентиляторы с этой задачей не справляются. Мощный вентилятор, в расчете на один сервер, способен продувать через корпус высотой в одну монтажную единицу немногим более 100 м3 воздуха в час. Обеспечить эффективное охлаждение стойки с дюжиной «потеющих коллег» по силам лишь целой колонне таких устройств, которые должны перегонять 4000 м3 воздуха в час — это вполне сравнимо с маленькой бурей.

В вычислительных центрах широко распространены двойные полы: нагнетаемый туда прохладный воздух подается через систему вентиляции в помещение, прогоняется через машины и отводится уже нагретым. Однако измерения и практический опыт показывают, что подобного охлаждения при тепловых потерях от 3 до 4 кВт уже недостаточно. Аналогичная система не подходит и для центров с большой плотностью оборудования, оснащенных, к примеру, высокопроизводительными кластерами. Как следствие, очень часто плотность вычислительных мощностей вынужденно ограничивается: недоукомплектованные серверные шкафы и расточительно используемая площадь неизбежно влекут за собой рост затрат. Конфликт целей очевиден, по мнению специалистов в области оснащения вычислительных центров, он может быть разрешен лишь путем оптимизации системы климатизации.

Многоплановость проблемы становится ясной, если разобраться, насколько жарко оказывается на самом деле. Если в качестве примера взять сервер формата 19? с площадью основания в 0,25 м2 с тепловыми потерями 300 Вт, то в результате получается следующая расчетная картина: вырабатываемые 0,12 Вт/см2 якобы свободно удаляются встроенным вентилятором. На самом же деле тепло выделяется не равномерно по всей поверхности, а лишь в одном месте — на центральном процессоре, где величина тепловых потерь на квадратный сантиметр в 50 раз больше, чем указано в документации производителя сервера.

«НЕТ» ОБРАТНОЙ СВЯЗИ

Куда же на самом деле уходит горячий воздух? Вентиляция серверного шкафа во многом зависит от беспрепятственности прохождения воздуха. Непродуманные изменения или невнимательность при прокладке проводки могут помешать либо воспрепятствовать отводу горячего воздуха из-за возникновения тепловых пробок со всеми отрицательными последствиями для производительности системы. Часто подобная обратная связь проявляется в том, что отводимый горячий воздух попадает в охлаждающий поток, в результате чего оборудование еще больше нагревается.

Как показывает практика, точечный или схематичный метод действия обязательно приведет к ошибке. Для достижения желаемой высокой готовности систем при приемлемой стоимости и надежной защите инвестиций рекомендуется использовать целостные модульные масштабируемые решения климатизации.

ТРЕБОВАНИЕ: ЦЕЛОСТНАЯ МОДУЛЬНАЯ МАСШТАБИРУЕМАЯ КЛИМАТИЗАЦИЯ

При целостном подходе изначально учитываются различные стороны климатизации. Речь идет не только о температуре и ее распределении по комнате — гораздо большее значение имеют влажность воздуха, давление и прочие параметры. Однако прежде всего необходимо позаботиться об использовании синергии и предотвращении обратной связи. Если обеспечивается охлаждение одного сервера, это еще не означает, что при совместной работе нескольких серверов в стойке температура будет оптимальной.

Даже если в отдельном серверном шкафу температура нормальная, он все равно может стать тепловым гнездом из-за неправильного размещения в комнате. Вместе с тем хорошо продуманная климатизация помещения и грамотная расстановка шкафов позволяет снизить требования к охлаждающей технике.

Вдобавок к этому следует учесть и прочие компоненты — электропитание, сетевая проводка, а также такие аспекты безопасности, как распределение прав доступа и методика проводимых работ. Тот, кто, помимо этого, рассматривает климатизацию в качестве фактора производительности и включает ее в систему мониторинга, уже в какой-то мере позаботился о защите своих инвестиций.

Рисунок 2. Циркуляционный распределительный комплект для охлаждения: модульная компоновка позволяет реализовать масштабируемое решение климатизации для модульных серверов.

Модульная климатизация исходит из того, что для удовлетворения различных требований необходимы различные подходы. Основная идея заключается в следующем: тепло следует «запереть» там, где оно возникает, после чего эффективно и полностью отвести. Между тем для каждой задачи существуют специфические технологии и компоненты. Многочисленные методы охлаждения воздуха далеко еще не отработали свой ресурс. Но некоторые слабые моменты (только посредством конвекции, из-за чего эффективность оказывается невысока; высокая скорость потоков воздуха; сильный шум; невозможность управления потоками) можно устранить путем жидкостного охлаждения (см. Рисунок 2).

Охлаждение центрального процессора с использованием циркуляции жидкости уже подтвердило свою эффективность на оборудовании с экстремально высокой плотностью размещения компонентов и высокой мощностью потерь. Систему можно адаптировать под каждый конкретный случай и полностью интегрировать в корпус шкафа. Воздушно-водные теплообменники устанавливаются там, где необходимы высокая мощность охлаждения и эффективное выведение воздуха.

При изобилии доступных и надежных модульных компонентов можно строить оптимизированные под конкретные требования системы охлаждения. Они образуют специализированную среду, в которой чувствительные и критичные для предприятия информационные технологии в полной мере сохраняют свою производительность.

НИКАКИХ ГОТОВЫХ РЕШЕНИЙ!

Модульная реализация обеспечивает и масштабируемость общей системы климатизации, расширяемость которой также является существенным аспектом защищенности инвестиций. С наспех скроенными решениями в серверную комнату лучше не соваться: компьютеры нуждаются в прохладе. Конкретные требования и условия можно выяснить путем инвентаризации имеющегося и планируемого оборудования. При этом целесообразно использовать термографические методы и компьютерное моделирование.

Выбор в пользу инвестиций в создание, устранение или перестройку серверной комнаты должен базироваться на согласованной общей концепции, где в деталях просчитаны требования к климатизации и ее возможности — от отдельных центральных процессоров до особенностей помещения, от электропитания до мониторинга.

На этой основе можно полностью определить и ввести самые экономичные решения на длительную перспективу. И не стоит забывать, что аппаратное обеспечение — причем не только упомянутые в самом начале серверные «лезвия» — оправдывают потраченные усилия благодаря более длительному сроку эксплуатации.

Ральф Дамер — директор по продуктам для ИТ-решений в Rittal. С ним можно связаться по адресу: http://www.rittal.de.


© AWi Verlag

Поделитесь материалом с коллегами и друзьями