Одновременно в больших городах и крупных индустриальных центрах растет дефицит электроэнергии. Увидим ли свет в конце тоннеля?

Все последние годы количество серверных стоек в вычислительных центрах постоянно увеличивается. При этом площадь размещения оборудования сокращается, а требования к энергоснабжению и охлаждению, напротив, растут.

Четыре года назад мощный стоечный сервер потреблял 2 кВт электроэнергии. Сегодня же стандартная стойка, наполовину заполненная серверами-лезвиями, потребляет до 30 кВт, а иногда и больше. Увеличение энергозатрат на вычисления дает двойной эффект, поскольку для охлаждения серверов требуется в 1,2–1,3 раза больше энергии, чем они потребляют. Практика показывает, что из-за проблем с охлаждением зачастую невозможно до конца заполнить стойку серверами. А устаревшие системы кондиционирования не справляются с отведением тепла, ибо его выделяется слишком много. В итоге растут расходы дата-центров на электроснабжение. Аналитики Gartner подсчитали, что сейчас на такие цели тратится примерно 10% ИТ-бюджета компаний, а в дальнейшем (если не предпринять радикальных мер) этот показатель может возрасти до 20–30%.

Лидеры отрасли высоких технологий ищут адекватный ответ на вызов времени. Проблематика уменьшения уровня потребляемой энергии и снижения тепловыделения заботит всех — от производителей элементной базы до поставщиков готовых вычислительных систем и инженерных комплексов для ИТ-сферы.

Элементарный уровень

Увеличение показателя «производительность на ватт» активнее других пропагандирует корпорация Intel. Впрочем, ее представители резонно отмечают, что с момента изобретения первого транзистора (в 1947 году) развитие процессорных технологий подготавливало почву для создания более производительных и энергосберегающих устройств. Однако, несмотря на значительные успехи производителей микрочипов, рост выделения тепла и токи утечки остаются важнейшими препятствиями на пути к уменьшению размеров транзисторов и увеличению производительности процессоров.

Недавно Intel сделала очередной прорыв в этой области. При создании 45-нанометровых транзисторов ее специалисты воспользовались передовыми материалами, сочетание которых позволило добиться очень низких значений силы тока утечки и рекордно высокой производительности. Применение диэлектрика затвора на основе специального материала high-k и металлических электродов обеспечивает увеличение более чем на 20% силы управляющего тока и соответствующее повышение производительности транзисторов. Благодаря новым полупроводниковым материалам более чем в пять раз снижается утечка тока, а значит, и энергопотребление транзистора. Таким образом, Intel внесла свой вклад в производство энергосберегающих, экономичных и высокопроизводительных процессоров для ноутбуков, настольных ПК и серверов.

В конце января IBM объявила об успешном завершении исследовательских работ по совершенствованию технологии выпуска транзисторов. В сотрудничестве с AMD, Sony и Toshiba корпорация нашла способ формирования одного из важнейших элементов транзисторов из нового материала. Эта технология, как и технология Intel, относится к категории high-k/metal-gate. IBM уже внедрила новую разработку в производственную линию, выпускающую полупроводниковые компоненты в Ист-Фишкилле (шт. Нью-Йорк). С 2008 года планируется ее применение в микросхемах, изготавливаемых по проектной норме 45 нм.

Корпорация AMD, чьи позиции на рынке микропроцессоров заметно укрепились, сообщила о планах перехода на 45-нанометровые производственные технологии в 2007 году.

Системный уровень

На уровне готовых вычислительных систем эксперты считают наиболее перспективным для снижения энергозатрат внедрение серверов-лезвий — прежде всего, потому, что сама blade-архитектура разработана с учетом оптимизации энергопотребления. Представители IBM утверждают, что использование инфраструктуры на платформе BladeCenter позволяет без ущерба для функциональности и производительности на 20–40% сократить энергопотребление — по сравнению с традиционной установкой серверов 1U и 2U в серверные шкафы.

По словам Ильи Крутова, бренд-менеджера по продуктам System X подразделения IBM EE/A, достигается это за счет, во-первых, совместного использования компонентов (блоков питания и вентиляторов), во-вторых, применения блоков питания с высокой эффективностью, а в-третьих, с помощью технологии IBM Calibrated Vectored Cooling. Последняя позволяет организовать два маршрута подачи воздуха к каждому серверу-лезвию, в результате чего повышается эффективность их охлаждения.

Отметим, что сегодня в арсенале каждого крупного производителя вычислительной техники имеется линейка blade-серверов.

Еще одним важнейшим компонентом, способным значительно сократить энергозатраты готовых вычислительных систем, являются средства виртуализации. Они позволяют значительно увеличить эффективность применения ИТ-ресурсов предприятиями и сократить совокупное энергопотребление. «При использовании виртуализации требуется меньше серверов для развертывания сервисов и решения вычислительных задач», — отмечает Крутов. По некоторым подсчетам, экономия энергоресурсов при виртуализации вычислительных мощностей может составить 10–30%. Добавим, что технологии виртуализации стремительно распространяются с серверного оборудования на клиентские терминалы, что сулит еще большие перспективы для экономии электроэнергии на уровне ИТ-систем.

Приведем характерный пример. Не так давно NEC Computers анонсировала выпуск программно-аппаратного комплекса Virtual PC Center (VPCC), объединяющего возможности компьютерных вычислений и IP-телефонии. Архитектура VPCC включает в себя виртуальный сервер, к которому подключаются тонкие клиенты. Этот сервер применяет технологию VMware, реализующую для каждого пользователя виртуального компьютера индивидуальную среду Microsoft Windows XP Pro со всеми приложениями и программным обеспечением VoIP. В комплекс VPCC также входят клиентские рабочие станции US100, каждая из которых потребляет менее 13 Вт. По данным NEC, общее потребление электроэнергии системой VPCC (включая серверы) — на 50% меньше, чем у систем на базе традиционных ПК.

И все же, несмотря на прогресс в области компьютерных технологий и поступательное снижение параметра «Вт/транзакция», суммарное потребление электроэнергии в дата-центрах продолжает увеличиваться. В чем тут дело? Отчасти это объясняется растущими потребностями программного обеспечения в вычислительной мощности, но не только.

На холостом ходу

Региональный менеджер корпорации APC Олег Письменский утверждает: «В современных центрах обработки данных примерно половина или даже менее электроэнергии затрачивается непосредственно на работу ИТ-оборудования. Остальная часть расходуется на функционирование инженерной инфраструктуры. Таким образом, первым по значимости фактором повышения эффективности вычислительного центра является увеличение доли электроэнергии, предназначенной для ИТ-оборудования, при одновременном снижении доли ее потребления инженерной инфраструктурой». Второй элемент стратегии, предложенной Письменским, включает в себя внедрение новых высокопроизводительных ИТ-платформ, консолидацию ресурсов и использование технологий виртуализации.

Что касается энергопотребления инженерной инфраструктуры, следует понимать: речь идет о фиксированных затратах электроэнергии в системах обеспечения бесперебойного электропитания и климатических системах. По большей части эти затраты возникают независимо от того, какова в данный момент нагрузка на ИТ-ресурсы в вычислительном центре. Указанные энергозатраты доминируют среди статей потребления электроэнергии инженерной инфраструктурой в центрах данных малой производительности.

Согласно сведениям аналитической компании Robert Frances Group, усредненный по отрасли коэффициент использования процессоров в большинстве вычислительных центров находится в пределах 15–20% (то есть значительная часть серверов работает в холостом режиме). А поскольку жизненный цикл центра обработки данных составляет примерно 10 лет, его владелец тратит огромные суммы на впустую расходуемую электроэнергию. «Очень важен выбор адекватной инженерной инфраструктуры, позволяющей экономить до 50% электроэнергии при эксплуатации вычислительного центра», — резюмирует Письменский. По другим оценкам, применение прогрессивных систем питания и кондиционирования позволит снизить потребление энергоресурсов на 35%.

Источники экономии

Современные источники бесперебойного питания (ИБП) являются не только первичным звеном в системе гарантированного электроснабжения ИТ-систем, но и важнейшим элементом цепочки энергосбережения, считают специалисты компании Emerson Network Power (торговая марка Liebert). А один из основных факторов повышения эффективности ИБП — уменьшение их влияния на входную сеть, т.е. повышение входного коэффициента мощности.

Прогрессивные технологии, применяемые в современных ИБП, позволяют получить входной коэффициент мощности 0,99. Для внешней электросети такие ИБП являются незначительной активной нагрузкой, при этом реактивная составляющая в потребляемом входном токе снижается, а эффективность использования энергоресурсов увеличивается. Например, в ИБП Liebert серии NX входной коэффициент мощности составляет 0,99, а коэффициент гармонических искажений на входе — менее 3% (без фильтра). ИБП этой серии основаны на бестрансформаторной технологии и транзисторных выпрямителях IGBT с векторным управлением. А вот в случае ИБП на базе классической схемы с тиристорными выпрямителями до 30% мощности может быть реактивной, из-за чего резко увеличивается общее потребление электроэнергии.

Наконец, работающий ИБП тоже является активным генератором тепла, на отведение которого требуется своя порция электричества. Чем эффективнее источник, тем меньше тепловой энергии он выделяет и больше электроэнергии экономит. «КПД систем бесперебойного электропитания достиг практического максимума (в нормальном режиме — до 94%), и его дальнейшее повышение уже невозможно», — отмечает Андрей Налетов, руководитель отдела систем электропитания компании «Стинс Корп».

Излишки килоджоулей

На кондиционирование 1 кв. м площади машинного зала ЦОД расходуется 600–1200 Вт электроэнергии при тепловыделении до 4000 Вт на 1 кв. м. Такие цифры приводят специалисты фирмы «Стинс Корп». Имеют ли климатические системы резервы, за счет которых можно уменьшить расходы на электроснабжение? Несомненно. Все зависит от эффективности отведения избыточного тепла.

Рассказывая об эффективных локальных климатических системах, уместно упомянуть решение Knuerr CoolTherm от Emerson. Оно представляет собой шкаф, охлаждающий отдельную серверную стойку в режиме замкнутого цикла. Встроенный в шкаф воздушно-водяной теплообменник снижает температуру до 20–25° С даже при установке в стойку blade-серверов, нагревающих воздух более чем до 40° С. CoolTherm позволяет рассеивать тепловыделение мощностью до 35 кВт на стойку. По сравнению с традиционными (воздушными) системами охлаждения CoolTherm «экономит» порядка 80% рабочего пространства и до четверти электроэнергии, затрачиваемой на охлаждение компьютерного оборудования.

В некоторых случаях эффективнее использовать централизованные системы отведения тепла. Emerson предлагает агрегат для охлаждения жидкости Superchiller из линейки чиллеров Liebert Hiross HPC. Эти устройства оснащены винтовыми компрессорами и имеют плавную регулировку уровня хладопроизводительности от 12,5 до 100% номинальной мощности; соответственно, возможно плавное изменение потребляемой мощности в том же диапазоне. При температуре на улице 5° С Superchiller переходит в режим естественного охлаждения, что позволяет значительно снизить расход электроэнергии. В качестве локальных систем теплоотведения используются «шкафные» кондиционеры с водяным (гликолевым) воздухоохладителем.

«Технология FreeCooling подразумевает, что предварительно очищенный холодный воздух в определенных пропорциях подается снаружи в охлаждаемое помещение. Применение этой технологии позволяет в холодное время года экономить до 50% электроэнергии, потребляемой системой кондиционирования воздуха», — комментирует Налетов.

Различные стратегии работы централизованной системы охлаждения на базе Superchiller обеспечивают микропроцессорные контроллеры Liebert Hiross, используемые для управления вентиляторами, компрессорами, регулирующими клапанами и др. Варьирование режимов работы системы Superchiller при отведении излишних килоджоулей тепла гарантирует экономию электроэнергии более чем на 40%, утверждают специалисты Emerson.

Адаптивный подход

Важнейшим направлением развития технологий дата-центров является переход к адаптивной инженерной инфраструктуре, включающей в себя системы гарантированного электропитания, эффективные механизмы кондиционирования, средства централизованного управления и обеспечения физической безопасности. Такой подход позволяет достичь синергетического эффекта и снизить затраты на установку, обслуживание и эксплуатацию компьютерного, электротехнического и климатического оборудования.

Компании АРС и Emerson преуспели в создании гибких управляемых инженерных инфраструктур для дата-центров. Emerson продвигает их под маркой Liebert X-Treme. Но родоначальником адаптивной инфрастуктуры на рынке оборудования дата-центров по праву считается APC, несколько лет назад предложившая решение InfraStruXure.

В него интегрированы все необходимые компоненты для функционирования дата-центра — системы бесперебойного питания, шкафы, стойки, климатическое оборудование, комплекс управления и охранные элементы. Уникальна в InfraStruXure система автоматизированного проектирования инженерной инфраструктуры дата-центра APC InfraStruXure Design Portal. С ее помощью специалисты разрабатывают и внедряют системы, обеспечивающие стабильность и непрерывность работы вычислительного комплекса при нагрузках до 70 кВт на стойку.

По словам Письменского, управление адаптивной инженерной инфраструктурой InfraStruXure построено на базе тех же стратегий, которые применяются для управления ИТ-инфраструктурой. Благодаря этому можно внедрять эффективные принципы ITIL применительно ко всем аспектам работы центров обработки данных, включая энергосбережение.

Самоохлаждение

Обострение проблем, связанных с энергосбережением и отведением тепла от компьютерного оборудования, привлекло на рынок специализированных инженерных систем не только традиционных поставщиков электротехнических решений и климатического оборудования, но и самих производителей вычислительной техники. Лидеры компьютерной индустрии, такие как IBM и HP, представили собственные решения для управления климатом и оптимизации энергопотребления в вычислительных центрах.

Полгода назад IBM предложила набор CoolBlue, который содержит мощные инструменты для оптимизации энергопотребления и управления системами охлаждения. Ключевой компонент CoolBlue — программно-аппаратный комплекс PowerExecutive. Он является средством централизованного мониторинга, анализа энергопотребления и тепловыделения серверной части дата-центра. PowerExecutive обеспечивает отслеживание временных закономерностей потребления электроэнергии с их группировкой по разным критериям (типы серверов, приложений, местоположение ресурсов и др.). Все это позволяет более эффективно планировать использование энергетических ресурсов в дата-центре.

В течение дня нагрузка на приложения разных типов меняется, что влияет на значение потребляемой мощности. На основании статистики можно проанализировать распределение электроэнергии во времени между группами приложений, отследить неиспользуемые ресурсы и задействовать их для выполнения других задач. Кроме того, IBM PowerExecutive вскоре сможет активно управлять энергопотреблением. Например, будет устанавливаться предельно допустимая мощность внешней нагрузки, а доступная энергия — распределяться между серверами в зависимости от приоритета и без ущерба для критически важных функций. PowerExecutive поддерживает работу с blade-системами IBM и многими серверами стандартной архитектуры IBM System X, но, к сожалению, не «распознает» серверы других производителей.

PowerExecutive входит в состав решения IBM CoolBlue — наряду с приложением для моделирования электропитания и тепловыделения в центрах обработки данных Power Configurator, с тепловым анализатором Thermal Diagnostics и системой охлаждения IBM Rear Door Heat eXchanger. Последняя представляет собой лицензированную у Panduit дверь с водяным охлаждением для серверных стоек, помогающую повысить эффективность инфраструктуры охлаждения. Она может быть использована и для создания новой системы охлаждения в дата-центре.

К примеру, у компании достаточно ресурсов для электропитания, но ограничены возможности системы кондиционирования. Вместо того чтобы перестраивать всю систему кондиционирования, можно установить дверь с водяным охлаждением на стандартный шкаф IBM Enterprise Rack. При построении нового ЦОД останется только спроектировать систему воздушного охлаждения с учетом производительности этой двери. По заверениям специалистов IBM, Rear Door Heat eXchanger позволяет увеличить теплоотвод на 55% — по сравнению с системой воздушного охлаждения. Разумеется, снижаются затраты электроэнергии на охлаждение серверного зала.

На основании результатов четырехлетних исследований HP также разработала новое решение для управления охлаждением Dynamic Smart Cooling (система интеллектуального динамического охлаждения). По заверениям HP, система может сберегать 20–45% электрической мощности, используемой для охлаждения. В решение HP DSC интегрированы прежние инновации компании в области энергосбережения и охлаждения, такие как HP Thermal Logic — ключевой компонент архитектуры HP BladeSystem c-Class.

Лидеры компьютерной индустрии полагают, что предложенный ими комплексный подход позволит преодолеть застарелый конфликт между расходами на энергопотребление и наращиванием ИТ-ресурсов.

Практика применения

Итак, можно ли добиться экономически оправданного снижения энергопотребления в дата-центре при одновременном повышении его производительности?

Юрий Наумов, руководитель проектов компании «Verysell Проекты» отмечает: «Частично решению этой задачи может способствовать замена устаревшего оборудования на современное, имеющее лучшие показатели производительности на единицу потребляемой энергии. Оптимальный выбор оборудования бесперебойного электроснабжения и кондиционирования также позволит снизить энергопотребление вычислительного комплекса на 10–20%. Но если опираться только на уже существующее серверное и телекоммуникационное оборудование (оставив в стороне оптимизацию функционирования аппаратно-программных средств), добиться сокращения энергопотребления при одновременном повышении производительности невозможно».

Михаил Качанов, руководитель Центра серверных решений компании «Стинс Коман», напротив, исполнен оптимизма: «Сегодня вполне можно добиться эффективного снижения энергопотребления при одновременном повышении производительности вычислительного центра. Ключом являются технологические новинки компьютерной индустрии». Оптимизм Качанова подпитывается выходом новых двуядерных процессоров Intel Itanium 2 Montecito, используемых в серверах SeNECa II от «Стинс Коман». Эти процессоры имеют в два раза большую производительность, чем предыдущие процессоры Intel того же класса, и обеспечивают на 20% меньший расход энергии.

Но скептики неумолимы. Если суммировать все обещания производителей микропроцессоров, вычислительных комплексов, систем бесперебойного питания и климатической аппаратуры относительно прогресса в области технологий энергосбережения, можно подумать, что в современных дата-центрах тихо и прохладно, как в вестибюлях отелей, говорят они. В действительности же вычислительный центр — место шумное и жаркое. Вероятно, таким он и останется до тех пор, пока для его функционирования будет требоваться все больше и больше электричества.


Способы повышения эффективности энергопотребления в дата-центрах

Экономия или бизнес?

При подготовке обзора мы опросили несколько телекоммуникационных компаний с целью выяснить, влияет ли на их деятельность дефицит энергетических мощностей в Москве, и как они справляются с такими проблемами. Ответы оказались самыми разными и подчас неожиданными.

Сергей Смирнов, руководитель ИТ-департамента «Корбины Телеком»

Проблема нехватки мощности городских электрических сетей затрагивает нашу компанию. Она не позволяет в полной мере вводить в строй новое серверное оборудование и прочие энергоемкие ИТ-ресурсы. Приходится тщательно взвешивать все «за» и «против» с учетом энергопотребления, что несколько сдерживает темпы роста клиентской базы и нашего бизнеса в целом.

Решать такие проблемы можно, прежде всего, за счет использования менее энергоемкого оборудования. Мы рассматриваем возможность перехода с платформ Intel на серверные решения компании AMD, технологии которой обеспечивают минимальное тепловыделение. Кроме того, развивая свою инфраструктуру, мы стараемся выносить энергоемкое технологическое оборудование за пределы городской черты. Там дефицит энергоресурсов ощущается в меньшей степени, чем в Москве. «Корбина Телеком» планирует открыть несколько дата-центров в Московской области. Пример уже реализованных проектов — наш сall-центр в Калуге, открывшийся в декабре прошлого года.

Людмила Старикова, директор по маркетингу WideXs

Работоспособность ИТ-узлов (как наших собственных, так и клиентских) напрямую зависит от состояния инженерных систем. В WideXS проблема дефицита электрических мощностей решается путем инвестирования значительных средств в системы бесперебойного питания. Мы располагаем тремя фидерами, идущими от разных подстанций Москвы, блоком ИБП и несколькими дизель-генераторами, которые обеспечивают работу всех систем в течение 45 часов без дозаправки.

Современные процессорные технологии дали жизнь серверам с энергопотреблением 10–15 кВт и более, установка которых может нарушить общий климатический фон в серверной комнате. Как следствие, приходится повышать мощность системы воздушного охлаждения, и энергопотребление растет в нелинейной зависимости. Чтобы не нарушать планы развития компании, мы применяем методы оптимальной расстановки оборудования. Конструктивно наш ЦОД представляет собой комплекс специальных сооружений с автономными системами жизнеобеспечения, в которых и размещаются серверы. Повысить мощность системы кондиционирования в модуле площадью 100–200 кв. м значительно проще и дешевле, чем в серверном зале размером 500–1000 кв. м.

Пресс-служба компании «Комстар — Объединенные ТелеСистемы»

Проблемы энергоснабжения нас не беспокоят, и дефицита энергомощностей в столице «Комстар-ОТС» на себе не ощущает. Перебои с подачей электропитания благополучно компенсируются с помощью установленных много лет назад дизель-генераторов. Что же касается использования передовых энергосберегающих технологий, «Комстар-ОТС» предпочитает стандартные решения, предлагаемые многими производителями.

Пресс-служба «Комкора»

Проблема дефицита электрических мощностей, в первую очередь, затрагивает энергоснабжение узлов связи. Расширение абонентской базы требует установки более мощного оборудования. Как следствие, возникает необходимость в росте производительности систем кондиционирования и увеличении энергозатрат.

Сегодня при установке нового оборудования мы все чаще сталкиваемся с отказами энергетиков из-за отсутствия требуемых мощностей. Те же проблемы возникают при поиске помещений для узлов связи. Из множества прогрессивных технологий, способствующих снижению энергопотребления, «Комкор» задействует PON. Эта технология позволяет значительно уменьшить количество «активных» сетевых узлов и общее энергопотребление. Кроме того, мы используем коммутаторы со встроенными оптическими портами, которые не требуют установки дополнительных шасси и модемов на узлах сети.

Александр Ильин, технический директор «Синтерры»

В связи с развитием экономической активности в столице и интенсивным жилищным строительством город ощущает на себе существенный дефицит энергоресурсов. Получить их в службе присоединения и развития «Московской кабельной сети» практически невозможно. Чаще всего организациям приходится договариваться с владельцами офисных и производственных зданий, которые включают счета за эти ресурсы в арендные платежи.

Рассуждая о технологиях, способствующих снижению энергопотребления в ИТ-сфере, я бы разделил серверное и телекоммуникационное оборудование. Последнее не относится к объектам интенсивного потребления энергоресурсов, да и новые технологические принципы его работы позволяют заметно снизить расход электроэнергии в процессе эксплуатации. А общее потребление энергии серверами, независимо от уменьшения удельных показателей, не снижается. Мы стараемся заблаговременно планировать расширение своих мощностей и прорабатывать вопросы получения энергоресурсов. Например, несколько лет назад при строительстве собственного офисного здания компания создала новую трансформаторную подстанцию, большая часть ресурсов которой была передана в распоряжение Москвы.