С ростом потребности в ресурсах классическим методом масштабирования ЦОД является установка в стойку дополнительных или более мощных серверов. Проблема в том, что современные серверы выделяют заметно больше тепла, чем их предыдущие варианты, поэтому приходится заботиться о необходимых климатических условиях — вплоть до ограничения масштабируемости ЦОД. Предприятия вынуждены менять системы контроля климата. Это первый важный шаг на пути к постоянному управлению информационными технологиями.

Массы очень горячего воздуха способны вызвать глобальное потепление климата в миниатюре», — предупреждал аналитик компании Forrester Research Ричард Фичера еще в прошлом году. По мнению Джеда Скарамеллы из IDC, современный среднестатистический сервер потребляет около 400 Вт энергии — в четыре раза больше, чем десять лет назад. За это время удвоилась также плотность установки серверов: с семи до четырнадцати на стойку. По мере перехода от систем в вертикальных корпусах (типа «башня») к серверам высотой 1U (как у коробки с пиццей) и модульным серверам оборудование становилось все более компактным и дешевым. Это привело к широкомасштабному использованию серверов для многоуровневых приложений. Некоторые предприятия, по словам Скарамеллы, рассчитывают, что в будущем смогут размещать в стойке до 60 серверов. Поэтому к 2010 г. IDC ожидает значительного роста затрат на охлаждение: с 21% до 70% от всего бюджета на обслуживание серверов.

ВЫЧИСЛИТЕЛЬНЫЕ ЦЕНТРЫ ПЕРЕГРЕВАЮТСЯ

Указанная тенденция взрывоопасна, поскольку, как подчеркивают Ракеш Кумар и Джон Энк из Gartner Group, выделение тепла процессорами (они больше всего потребляют энергетических ресурсов) иногда заметно превышает мощность системы охлаждения ЦОД. Популярность серверов с высокой плотностью размещения процессоров будет расти и дальше, из-за чего возникают две основные проблемы: во-первых, потребление энергии для стойки с плотным размещением модульных серверов может составлять 30 кВт (традиционным стойкам нужно лишь 2 — 3 кВт), а во-вторых, увеличение количества выделяемого тепла чревато тем, что обычные системы воздушного охлаждения достигнут потолка своей производительности, и тогда потребуются дополнительные инвестиции. В некоторых случаях придется даже прибегать к жидкостному охлаждению, до сих пор применявшемуся только для мэйнфреймовых систем старшего класса.

В декабре 2006 г. аналитики Gartner Капелли и Кумар в своей полемической работе («Energy Consumption Is the Fourth Dimension of Application and Infrastructure Monitoring»; см. врезку «Дополнительная информация») подчеркнули, что «управление потреблением электроэнергии с учетом проблем окружающей среды становится фундаментальной задачей инфраструктурных и производственных подразделений на предприятиях». Исследователи выделяют четыре движущих фактора: наряду с выделяющими большое количество тепла архитектурами микросхем, миниатюризация которых небезгранична, и требующими больших затрат энергии многоуровневыми архитектурами существенную роль играют постоянно растущие цены на энергию, общественно-политические и экологические проблемы. Все это ведет к увеличению государственного регулирования.

НЕЭФФЕКТИВНЫЙ ДИЗАЙН МИКРОСХЕМ

Ричард Фичера подверг критике деятельность производителей процессоров, до недавнего времени обращавших внимание лишь на повышение производительности и пренебрегавших вопросами эффективности потребления электроэнергии. Так, Intel сделала выбор в пользу быстродействия процессоров вместо того, чтобы заняться предотвращением потерь на рассеяние. «Потери на рассеяние — это зря потраченная энергия, количество которой растет», — высказывает свое недовольство Фичера. Процессор Intel Xeon MP, например, выделяет тепло мощностью до 130 Вт, т. е. 260 Вт на квадратный дюйм — по этому параметру он сопоставим с электроплиткой. Процессоры Opteron, по данным Gartner, вырабатывают примерно на 20% меньше тепла, чем аналоги Intel. По утверждению IBM, система BladeCenter L21 на базе процессоров Opteron в холостом режиме потребляет на 30% меньше энергии, чем сопоставимые истемы. Sun, в свою очередь, подчеркивает, что уровень потребления энергии системой SPARC T1000 под кодовым названием Niagara в 2,5 раза меньше, чем у моделей конкурентов.

Впрочем, Intel уже отреагировала на происходящее. Начиная со второй половины 2007 г. она намерена использовать технологию Robson (официальное название — Turbo Memory) для ноутбуков на платформе Santa Rosa: драйвер Robson во взаимодействии со специальным флэш-накопителем уменьшит число обращений к жесткому диску — классическому «бутылочному горлышку» для локальных процессов чтения/записи. Новый подход не только способствует ускорению работы компьютера, но и снижает потребление электроэнергии: флэш-накопитель освободит жесткий диск от механической работы, требующей высоких затрат электроэнергии, благодаря чему диск сможет быстрее переходить в экономичный «спящий» режим. Конечно, новшество предназначено в первую очередь для пользователей, испытывающих неудобства в связи с низким ресурсом батареи ноутбука, и пока отношение к потреблению энергии в стиле Robson не завоевало главенствующего положения в серверных стойках, производителям приходится искать другие пути.

Недостаточно полагаться только на дорогостоящее охлаждение и прогресс в области процессоров: «Управление выделяемым теплом представляет собой целую цепочку, — подчеркивает Фичера. — Оно начинается с микросхем, распространяется на платы, корпуса и стойки и заканчивается ЦОД в целом» (см. Рисунок 1). Поэтому выделение и отвод тепла он называет «проблемой, которая охватывает все уровни»; и ее решение потребует сконцентрированных усилий участников рынка, включая «производителей полупроводников и установок для охлаждения, проектировщиков систем, разработчиков программного обеспечения, а также архитекторов и операторов ЦОД». Постановка задачи затрагивает очень многие области: от интеллектуального проектирования циркуляции воздуха в серверных системах и контроля за выделением тепла на системном уровне до планирования ЦОД с акцентом на оптимизацию выделения тепла. Фичера советует: «При выборе новых систем и инструментов для управления системами следует с особым вниманием изучать вопросы выделения тепла и охлаждения».

Рисунок 1. Управление потреблением энергии в ЦОД остается проблемой, охватывающей все уровни.
На системном уровне рынок предлагает интересные решения для более эффективного использования энергии. Так, IBM указывает, что у блока питания ее решения BladeCenter КПД превышает 90%, а благодаря эффективным вентиляторам система потребляет до 60% меньше электроэнергии, чем продукты других производителей. Для быстрого отвода горячего воздуха IBM предлагает технологию Calibrated Vector Cooling, которая предусматривает два маршрута вентиляции. Это должно предотвратить излишнюю циркуляцию воздуха и повысить долговечность компонентов. Hewlett-Packard в своей системе модульных серверов c-Class делает ставку на концепцию Thermal Logic. Она содержит средства мониторинга и управления издержками на электропитание и охлаждение. В частности, инструмент под названием Dynamic Power Saver в случае необходимости включает или выключает источники питания. Поскольку блок питания эффективнее работает при высокой нагрузке, КПД можно увеличить на 50–90%. Конфигурируемая система охлаждения должна исключать из плана охлаждения пустые слоты для модульных серверов и обеспечивать меньшее охлаждение для менее активных жестких дисков системы хранения.

Производители климатических решений поставляют на рынок усовершенствованные системы воздушного и водяного охлаждения, а также системы типа «комната в комнате». Кроме того, для того чтобы не перегружать общую систему управления климатом в случае высокопроизводительных компьютеров с большой плотностью размещения, проектировщики ЦОД рекомендуют создавать так называемые «горячие зоны», т. е. отдельные, специальным образом охлаждаемые стойки. Однако все это делается лишь во избежание перегрева ЦОД. Для экономии энергии такие реактивные меры едва ли подойдут, ведь они не решают проблему полностью.

«Традиционные системы контроля климата функционируют на одном и том же уровне и не в состоянии динамически реагировать на изменения рабочей нагрузки и потребности в электропитании», — говорят Ракеш Кумар и Майкл Белл из Gartner. — Поэтому система охлаждения поглощает иногда в 1,5–2 раза больше энергии, чем сами серверы. В конце ноября 2006 г. Hewlett-Packard представила систему программного управления климатом Dynamic Smart Cooling (DSC). По данным компании, она распознает изменения температуры и автоматически изменяет направление потоков холодного воздуха. В результате затраты на охлаждение должны сократиться на 20 — 45%. Решение будет доступно начиная с третьего квартала 2007 г. Аналитики Gartner рекомендуют провести оценку, если затраты на охлаждение превысят затраты на эксплуатацию серверов.

«До сих пор потребление энергии рассматривалось прежде всего в контексте затрат и управления физическими устройствами», — высказывают свои критические замечания Капелли и Кумар. И хотя системы управления от IBM/Tivoli, HP или CA в состоянии обрабатывать информацию, поступающую от датчиков температуры, пока не ясно, насколько совершенные фильтры можно будет построить на этой основе для корреляции и анализа событий. Аналитики указывают на отсутствие всеобъемлющих решений управления, которые предоставляли бы подробную информацию об эффективности потребления энергии в инфраструктурах ИТ: доступные сегодня решения, работающие на физическом уровне, по данным Капели и Кумара, «едва ли способны предложить эффективную — с точки зрения потребления энергии — помощь, которой отдел ИТ предприятия сможет воспользоваться». Тем не менее, считают они, надежда есть: уже появились модели для выявления отдельных этапов функционирования приложений, к примеру «сборка мусора» (garbage collection) в случае требующих высоких затрат электроэнергии приложений Java, что позволит вовлечь в круг задач управления и определение потребности в энергии. И все же, по мнению аналитиков Gartner, нужен отраслевой стандарт эффективности.

ПОСТОЯННАЯ ЭКСПЛУАТАЦИЯ ЦОД

Постоянное управление ИТ не только экономически оправдано, но и необходимо с экологической точки зрения. «Зеленый ЦОД» уже стоит на повестке дня различных производителей, но до всеобъемлющего управления ресурсами, которые требуются инфраструктурам, приложениям или деловым процессам, пока еще далеко.

Д-р Вильгельм Грайнер — редактор журнала LANline.


© AWi Verlag


Дополнительная информация

Richard Fichera, Forrester: «Power and Cooling Heat Up the Data Center». March 2006.

Jed Scaramella, IDC: «Enabling Technologies for Power and Cooling». September 2006.

Rakesh Kumar and John Enck, Gartner: «Guidelines for Dealing with Data Center Power and Cooling Issues». October 2006.

Michael Bell and Rakesh Kumar, Gartner: «HP Ofters a Cool Solution for Data Centers Feeling the Heat». December 2006.

Will Cappelli and Rakesh Kumar, Gartner: «Energy Consumption Is the Fourth Dimension of Application and Infrastructure Monitoring». December 2006.