Планирование современных вычислительных центров и их эксплуатация представляют собой серьезную проблему.

Работа предприятия во многом зависит от готовности центра обработки данных: если в восьмидесятые годы многочасовой простой вычислительного центра мог не влиять на работу компании, то сегодня длительный коллапс инфраструктуры ИТ нередко приводит к полному прекращению всякой деятельности. Как утверждается в отчете института рыночных исследований Meta Group, продолжительный отказ важных компонентов ИТ приводит в течение пяти дней к остановке производства с вероятностью 50%.

Самый мрачный сценарий развития событий для информационных технологий будущего связан с обеспечением питанием. В качестве примера можно привести происшествие в федеральной земле Германии Нордхайн-Вестфаллен: авария в энергетической сети обернулась серией отказов, цепь которых протянулась от Германии до Испании и Италии и в течение нескольких секунд парализовала множество систем ИТ в Европе. Отключение высоковольтной ли-нии напряжением 400 тыс. вольт привело к перегрузке других линий электропередачи и к так называемому эффекту домино.

ДОСТУПНОСТЬ ПИТАНИЯ: РЕШАЮЩАЯ РОЛЬ

Постоянное наличие энергии постепенно становится мерой всех вещей при построении и эксплуатации центра обработки данных. Логическим следствием роста требований к доступности ИТ является и необходимость обеспечения электроэнергией во все большем масштабе. Поэтому избыточность системы подачи питания, дублированные или альтернативные ее каналы, системы аварийного питания и концепции бесперебойного обслуживания являются сегодня обязательным условием вычислительного центра высокой готовности.

Планирование бесперебойной подачи питания в идеальном случае начинается с выбора поставщика электроэнергии и заключения специализированных контрактов, нацеленных на обеспечение максимальной готовности энергии. Готовность в 99% означает, что время простоя в год составит 3,65 суток, а готовность в 99,9999% — максимум 31,54 сек, как утверждается в руководстве Федерального союза по информационным технологиям, телекоммуникации и новым носителям данных (Bitkom). Эта разница может стать решающей для сохранения жизнедеятельности предприятия.

Крупные вычислительные центры рекомендуется подключить ко второй трансформаторной подстанции, чтобы обеспечить требуемую избыточность с помощью дополнительного независимого источника энергии. Кроме того, применение концепций аварийного электропитания стало по сути обязательным. Как правило, в этом случае используется источник бесперебойного питания (ИБП), который может дэмпфировать простые колебания напряжения и позволяет управлять качеством подачи энергии. Помимо этого рекомендуется установить и дизельный агрегат, способный поддерживать питание систем как минимум в течение 12, а еще лучше 20-72 ч без дозаправки.

Небольшим и средним предприятиям следует заключать контракты с поставщиками мобильных дизельных генераторов, которыми компания могла бы воспользоваться в кратчайшие сроки в случае аварии. Часто подобные агрегаты можно одолжить и у провайдера электроэнергии. При выборе места для размещения установки системы гарантированного питания надо предусмотреть удобный маршрут транспортировки и возможности подвоза топлива, а также соблюдать предписания по его хранению. Все эти меры, направленные на организацию непрерывной подачи питания, уже сегодня являются обязательными, поскольку в стандартных контрактах компаний, специализирующихся на поставке электроэнергии, как правило, не предусматривается какая-либо материальная ответственность.

КОНЦЕНТРАЦИЯ НА ЭФФЕКТИВНОСТИ

Помимо забот о недопущении отказа питания сотрудникам вычислительного центра приходится добиваться повышения эффективности. Сегодня в отрасли информационных технологий доминируют сложные устройства с высоким потреблением энергии. На первом месте в этом списке стоят классические, до отказа заполненные техникой шкафы с форм-фактором 19″. Уже при покупке оборудования ИТ предприятие должно обращать внимание на то, чтобы на приобретаемых компонентах стоял ярлык «сертифицировано для использования в центрах обработки данных». Речь идет об устройствах, сконструированных специально для применения в ЦОД и обладающих оптимизированной схемой энергопотребления.

Проблема в том, что помимо потребляемой энергии важным фактором экономичности работы вычислительного центра является выделяемая устройствами теплота. С одной стороны, количество устройств постоянно растет, а с другой — их производительность увеличивается, а сами они становятся все более миниатюрными. Мощность охлаждения современных процессоров должна составлять от 70 до 130 Вт на квадратный сантиметр. Кроме того, не стоит забывать о жестких дисках и компонентах хранения, которым требуется все большая мощность для охлаждения: 19-дюймовая стойка с оборудованием выделяет от 2000 до 3000 Вт электрической энергии в виде теплоты, которую необходимо удалять при помощи систем, тоже потребляющих ток. Тепла выделяется примерно столько, сколько вырабатывает кухонная плита. Его обязательно нужно отводить от устройств и из помещения для поддержания в вычислительном центре постоянной температуры. Оптимальной считается 22–25°C.

Одним из способов охлаждения является устройство двойных полов с зазором около 50 см, снабженных выпускными отверстиями в местах установки монтажных шкафов. Базовый принцип заключается
в том, что холодный воздух подается через эти отверстия, а нагретый вытесняется поверх и выводится наружу благодаря конвекции или дополнительным вентиляторам в стойке. И, наконец, необходимо следить за тем, насколько прогревается каждая стойка, так как уровень отказов информационных технологий имеет экспоненциальную зависимость от температуры окружающей среды. Чтобы снабдить все серверные шкафы достаточным количеством холодного воздуха, уже при планировании вычислительного центра следует предусмотреть необходимое число каналов в двойных полах для прохождения холодного воздуха. Кроме того, оптимальное охлаждение обеспечивают правильный расчет холодных и горячих зон и широкие проходы. Но в любом случае следует избегать затягивания теплого воздуха в стойки соседнего ряда со стороны их передней панели, что усложняет задачу охлаждения.

Однако все чаще новые серверные платформы предъявляют очень высокие требования, и тогда концепция двойных полов, разработанная еще в семидесятые годы для мэйнфреймов, оказывается непригодной, как утверждает Федеральный союз Bitkom. Если ранее мощности от одного до трех киловатт для охлаждения одной стойки было вполне достаточно, то сегодня эти значения необходимо откорректировать с учетом высокопроизводительных систем ИТ. Хорошо себя зарекомендовали специальные устройства регулирования климата, применимость которых оценивается в соответствии с такими параметрами, как максимальная мощность потерь, условия монтажа, затраты на приобретение, эксплуатацию и расширение, а также требуемая отказоустойчивость.

Обычно эксперты в области вычислительных центров выделяют два типа систем: устройства, испаряющие хладагент, и агрегаты, использующие для отвода теплоты холодную воду. Если первые работают
с компрессорами, при помощи которых передается хладагент и тепло, то решения с применением холодной воды базируются на закрытой системе циркуляции жидкости, перекачиваемой при помощи насосов. Однако обе формы охлаждения заметно увеличивают потребление электроэнергии в вычислительным центре: как показывает опыт, до 50% энергии уходит на охлаждение.

ВЫБОР МЕСТА ДЛЯ РАЗМЕЩЕНИЯ

Уже при выборе места для размещения сервера можно принять эффективные меры для достижения экономичной эксплуатации вычислительного центра. Например, оборудование следует размещать таким образом, чтобы оно не нагревалось солнечными лучами или осветительными лампами. Дополнительно следует проверить возможность свободного охлаждения, когда воздух извне запускается через специальную заслонку. Этот метод позволяет в меньшей мере загружать предназначенные для охлаждения компрессоры, которые потребляют много энергии. Он может оказаться выгодной альтернативой охлаждению вычислительного центра, прежде всего зимой.

Мощность охлаждения имеет смысл отрегулировать в соответствии с количеством выделяемой теплоты. Охлаждать сервер при помощи системы с излишней мощностью смысла не имеет. Отводимое из серверных помещений тепло можно задействовать для отопления, что повысит эффективность использования энергии. Не стоит забывать о датчиках температуры и влажности, и всегда необходимо контролировать исправность вентиляторов. После интеграции новых серверов или удалении машин из системы надо заново проверить соотношение температуры и в случае необходимости изменить эти параметры. Уже на этапе планирования ответственные лица должны принять во внимание энергетическое поведение компонентов ИТ, включая количество потребляемой ими энергии, а также долю этого потребления в общем объеме расходуемой энергии.

Применительно к концепции вычислительного центра наиболее частая ошибка заключается в том, что меры по снижению энергопотребления вовремя не принимаются: сначала ждут «определенных инвестиций». Если средств не хватает, аргументы в пользу новой политики энергопользования игнорируются, поскольку часто неправильно оцениваются перспективы ее амортизации. Однако в некоторых ситуациях выясняется, что концепция экономии энергии очень быстро окупается, а объем вложений ограничивается разумными рамками. Нередко бывает и так, что деньги на приобретение компонентов ИТ и устройств регулирования климата выделяются, а вычисления, для всего жизненного цикла оборудования не производятся. Необходимо составить выверенный баланс всех инвестиций и затрат на эксплуатацию с учетом всех значимых факторов. Так, можно посчитать, сколько потребуется средств, чтобы увеличить эффективность использования энергии, и тем самым обосновать экономичность этих мер.

БЕЗОПАСНОСТЬ ПРЕВЫШЕ ВСЕГО

Помимо потребления энергии при построении современного вычислительного центра огромное значение отводится обеспечению безопасности. Наряду с системами распознавания дыма и пожара, огнеупорными дверьми, контролем доступа и постоянно проверяемыми системами пожаротушения обязательными являются меры по защите доступа к святая святых —
помещениям ИТ. В принципе для этого должен использоваться механизм авторизации, который наряду с разными группами пользователей будет поддерживать разные права доступа. Сюда же относятся концепции обеспечения безопасности, в соответствии с которыми ответственные команды подразделения ИТ получают только действительно необходимые права на администрирование электронной почты, файлового сервера или сервера Web. Эти правила действуют и для внешних провайдеров, если эксплуатация вычислительного центра ведется посредством аутсорсинга.

Йозеф Ледерманн — менеджер по обеспечению безопасности телекоммуникаций немецкого филиала компании Orange Group.


© AWi Verlag


Рекомендации по экономии энергии

  • незанятые 19-дюймовые слоты надо прикрыть заглушками;
  • максимальную мощность охлаждения необходимо рассчитывать в соответствии с реалистичными предположениями (номинальная мощность, указанная на маркировке оборудования ИТ, на практике не достигается; максимальная необходимая мощность охлаждения на деле оказывается на 30 и более процентов меньше);
  • воздушные фильтры нужно менять своевременно;
  • следует использовать тихие и эффективные спиральные компрессоры;
  • предпочтительнее установить вентиляторы с электронным управлением;
  • при нормальной работе избыточные системы охлаждения должны включаться по очереди;
  • в зависимости от приложения необходимо проверять, можно ли установить более высокую температуру, поскольку каждый градус потребляет энергию;
  • полезно предусмотреть так называемое свободное охлаждение;
  • освещение по возможности должно включаться и выключаться с помощью системы обнаружения присутствия, поскольку источники света выделяют много тепла.

Эффективность использования энергии можно измерить

искуссии об экономичном использовании энергии в вычислительных центрах ведутся повсеместно, но при этом пока неясно, как вообще можно подсчитать эту эффективность. На это обращает внимание, к примеру, в своем информационном проспекте «Green Grid Metrics: Describing Datacenter Power Efficiency» отраслевой консорциум The Green Grid — он основан в начале 2007 года и занимается экономией энергии. Сегодня в качестве измеряемых параметров служат эффективность использования энергии (Power Usage Effectiveness, PUE) и эффективность центра обработки данных (Datacenter Efficiency, DCE). Оба параметра вычисляются на основании отношения общего объема потребляемой вычислительным центром энергии (Total Facility Power) к мощности, потребляемой оборудованием ИТ (IT Equipment Power). При этом DCE — это величина, обратная PUE (см. Рисунок 1).

Рисунок 1. Консорциум Green Grid считает применяемые сегодня меры оценки эффективности использования энергии — PUE и DCE — слишком грубыми.

The Green Grid подвергает сомнению содержательность этих формул и предлагает сделать эталонной величиной эффективную производительности вычислительного центра (Datacenter Performance Efficiency, DCPE). DCPE вычисляется как полезная работа, деленная на общий объем потребляемой вычислительным центром энергии. Но как определить значение «полезной работы», особенно с учетом того, что в современных серверных системах уже используются активные системы охлаждения? На ту же проблему указывает Сильвио Верен, отвечающий за экологические продукты в компании IBM: «Цель поставлена правильно, но ее трудно достичь, техническая база слишком сложна». Безусловно, специалистам отрасли придется еще долго спорить, пока они не придут к единой, всеми признанной шкале оценки.

Вильгельм Грайнер