Оборудование, рассчитанное на активное энергопотребление, в сочетании с ростом цен на энергоресурсы наносят ощутимый удар по бюджетам центров обработки данных. Вот что нужно делать, чтобы удерживать затраты под контролем.

Оборудование, рассчитанное на активное энергопотребление, в сочетании с ростом цен на энергоресурсы наносят ощутимый удар по бюджетам центров обработки данных. Вот что нужно делать, чтобы удерживать затраты под контролем.

Типичный центр обработки данных площадью 3 тыс. кв. метров потребляет достаточное количество энергии для питания 8 тысяч 60-Втных электрических ламп. По подсчетам ученых из национальной лаборатории Lawrence Berkeley, это в 6-10 раз больше, чем нужно для обслуживания типичного офисного здания во время пиковых нагрузок. Учитывая то обстоятельство, что большинство центров обработки данных функционируют круглосуточно семь дней в неделю, можно предположить, что их владельцам в нынешнем году придется заплатить миллионы долларов лишь за то, чтобы компьютеры были постоянно включены.

При этом расходы постоянно растут. Цена на нефть (в феврале нынешнего года она составила 60 долл. за баррель) может колебаться в известных пределах, однако, по мнению экспертов, затраты на энергию, необходимую для обеспечения работы вычислительных центров, по-видимому, будут по-прежнему возрастать. Это объясняется тем, что глобальный спрос на энергию имеет тенденцию к росту, что отчасти связано с широким распространением все более мощных компьютеров. По словам инженеров корпорации Sun Microsystems, если монтажная стойка с серверами, установленная в вычислительном центре года два назад, потребляла в среднем 6,7 кВт электроэнергии и излучала 133 Вт тепла на кв. метр, то современные стойки «с высокой плотностью размещения», позволяющие «втиснуть» большее число серверов в тот же объем пространства, уже к концу нынешнего десятилетия будут потреблять порядка 83 кВт энергии и излучать до 1,7 кВт тепла на каждый кв. метр. Зловещие предсказания продолжают поступать. Недавно инженер из фирмы Google предупредил в научной статье, что если мы не сумеем получить от современных компьютеров большей отдачи на каждый Вт потребленной энергии, расходы на энергетическое обеспечение функционирования этих машин в конце концов превысят затраты на их приобретение.

«По мере того, как спрос на компьютерную обработку данных возрастает, стоимость энергии становится все более острой проблемой», — поясняет Дьюитт Латимер, главный технолог Университета Нотр-Дам. Латимер пытается изыскать место и подходящие источники энергии для удовлетворения растущего спроса на дешевые и все более высокопроизводительные компьютерные кластеры в Нотр-Дам. Проблема состоит не только в обслуживании собственно компьютеров. Латимера беспокоит, что расходы на кондиционирование воздуха для охлаждения машин будут не менее ощутимым ударом по его бюджету.

Эти проблемы волнуют не только Латимера. Каждому руководителю информационной службы, располагающему вычислительным центром, и даже тем из них, кто перекладывает заботы по управлению центрами на плечи внешних подрядчиков, приходится решать головоломку: как удовлетворять постоянно растущие требования по производительности, сохраняя под контролем все возрастающее энергопотребление. Особую остроту эта проблема приобретает в компаниях на обоих побережьях США и в крупных городах с большим дефицитом рабочих площадей, и компании компенсируют это обстоятельство, размещая в существующих зданиях все новые и новые серверы. Между тем, простых решений этой сложной проблемы нет. В коммерческой среде существует спрос на новые приложения, поэтому компании устанавливают на своих площадях дополнительные серверы. По данным IDC, которая занимается исследованием рынков, объемы продаж серверов ежегодно увеличиваются на 10-15%.

Тем не менее, некоторые ИТ-руководители, расходующие огромные средства на энергоснабжение своих подразделений, разрабатывают способы удержания этих трат под контролем с помощью энергосберегающего оборудования и более эффективного использования серверов. «Не подлежит сомнению, что вопросы энергоснабжения и охлаждения приобретают все большую остроту, — утверждает аналитик фирмы IDC Хамфриз. — Сегодня к строительству новых центров обработки данных уже нельзя подходить с тех же позиций, что в прошлые годы».

Проблема: ИТ как пожиратель энергии

Энергетические проблемы сферы ИТ тесно связаны с теми же рыночными факторами, которые воздействуют на каждого потребителя, управляющего автомобилем или включающего электрическую лампочку. В начале 2006 года цена барреля нефти была в два раза выше, нежели три года назад. Стоимость природного газа, используемого на многих электростанциях страны, тоже резко возросла. И всякий, кто полагает, будто нынешний энергетический кризис сгладится сам собой, избавится от этой иллюзии, если бросит беглый взгляд на глобальные энергетические рынки.

Причиной нефтяных потрясений 1970-х и 80-х годов были крупномасштабные и внезапные сокращения предложения. Сейчас ситуация иная. Конечно, нельзя отрицать, что нынешние высокие цены отчасти объясняются резкими снижениями предложения, связанными с вторжением США в Ирак и с ураганами на северном побережье Мексиканского залива, но очевидно и другое: мировой спрос на нефть на протяжении последних 25 лет рос более быстрыми темпами, чем глобальное производство. Кроме того, необходимо учитывать быстрое экономическое развитие Китая и Индии, испытывающих потребность во все больших объемах энергии. В результате возникло дополнительное давление на мировые энергетические рынки.

Пусть серверы в корпоративных центрах обработки данных потребляют меньше энергии, чем производственные установки предприятий тяжелой индустрии, но в рамках отдельной компании именно сфера ИТ является главным «пожирателем» энергии. «Центры обработки данных никак не назовешь экономными потребителями электроэнергии. Мы включаем серверы, да так их и оставляем», — признается Нил Тисдейл, вице-президент по разработке ПО фирмы NewEnergy Associates, 100% дочернего предприятия компании Siemens. Центр обработки данных фирмы NewEnergy занимается моделированием сетей электропитания Северной Америки, чтобы помочь энергетическим компаниям в разработке планов на случай чрезвычайных обстоятельств.

Точный объем электроэнергии, потребляемой центрами обработки данных в США, трудно определить, полагает Ион Куми, штатный научный сотрудник Национальной лаборатории Lawrence Berkely. Куми в сотрудничестве с экспертами из корпораций Sun и IDC как раз и занимается подготовкой соответствующих оценок. Но в любом случае почти все эксперты сходятся в том, что потребление энергоресурсов центрами обработки данных растет. По данным Afcom, ассоциации занятых в центрах обработки данных профессионалов, энергетические потребности этих центров ежегодно возрастают в среднем на 8%. А для 10% вычислительных центров, представляющих ведущие организации, энергопотребности растут со скоростью свыше 20% в год.

В то же время потребности корпораций в ИТ-услугах возрастают, и потому компании вынуждены расширять свои центры обработки данных. По данным IDC, к 2009 году в вычислительных центрах в эксплуатацию будут введены по меньшей мере 3,6 млн. дополнительных кв. метров площадей. Для сравнения: площадь крупнейшего торгового центра в мире, расположенного в штате Миннесота торгового пассажа Mall of America, составляет 750 тыс. кв. метров.

Решение № 1: Ролее эффективные компьютеры

Когда цены на нефть были низкими, автомобилестроители выпускали внедорожники. Подобным же образом реагировали на потребность в более производительных и дешевых компьютерах изготовители вычислительных машин. Энергопотребление считалось не столь важной характеристикой, как эксплуатационные качества.

Стремясь предложить потребителям самые скоростные процессоры, изготовители микросхем постоянно сокращали размеры транзисторов, из которых состоят процессоры. Самые «быстрые» микросхемы отличались самым высоким потреблением электроэнергии; в то же время они позволяли производителям создавать меньшие по размерам серверы, которые компании сотнями устанавливали в монтажные стойки. Иными словами, компании получали возможность устанавливать на небольших производственных площадях более мощные вычислительные средства.

Теперь же, когда ИТ-руководители начинают проявлять беспокойство относительно высоких затрат на энергообеспечение, производители аппаратных средств меняют свою стратегию. Изготовители оборудования из Кремниевой долины развертывают борьбу за рынок энергосберегающих машин. Большинство изготовителей микросхем наращивают производство так называемых двухъядерных процессоров, которые отличаются от традиционных микросхем более высоким быстродействием и в то же время потребляют меньше энергии. Среди таких новых чипов — процессор Opteron корпорации Advanced Micro Devices. Он потребляет 95 Вт энергии (тогда как для процессора Xeon фирмы Intel этот показатель составляет 150 Вт). В марте представители Intel рассказали о планах создания изделия, сберегающего еще больше энергии. Двухъядерный процессор с рабочим названием Woodcrest, который, по словам представителей Intel, появится на рынке этой осенью, будет потреблять на 35% меньше энергии по сравнению с предыдущими процессорами Intel, а производительность его будет при этом на 80% выше. Между тем в ноябре 2005 года корпорация Sun Microsystems представила свой чип UltraSparc T1, известный как Niagara. Устройство будет включать в себя восемь процессоров, но его энергопотребление составит всего 70 Вт. Кроме того, Sun позиционирует свое семейство серверов Galaxy как энергосберегающее оборудование.

«Сейчас производители движутся в правильном направлении», — утверждает Пол Фроутан, вице-президент по производственному оборудованию фирмы Rackspace, которая управляет серверами клиентов в пяти своих центрах обработки данных. Фроутану приходится обслуживать более 18 тыс. серверов, и он уже много лет с тревогой следит за ростом затрат на электропитание. Он стал свидетелем того, как энергопотребление компании более чем удвоилось за последние 3 года, а ежемесячные счета от поставщиков электроэнергии выросли за тот же период в пять раз, составив 300 тыс. долл.

Латимер, курирующий работу Центра исследовательских вычислений Университета Нотр-Дам, впервые оценил все масштабы проблемы энергопотребления в то время, когда университетские власти решили разместить свои высокопроизводительные компьютеры за пределами кампуса на площадях внешнего подрядчика. В то время, когда компьютеры были расположены на территории кампуса, затраты на электроснабжение центров обработки данных не выделялись в особую статью и не были особенно заметны. И поэтому, получив от внешнего подрядчика чек на сумму 3 тыс. долл. по истечении месяца эксплуатации состоящего из 512 узлов кластера серверов Xenon, Латимер испытал настоящее потрясение.

Недавно ректор Нотр-Дам вызвал Латимера и других руководителей для обсуждения вопроса возрастающей нагрузки, которую приобретающие все более широкие масштабы исследовательские программы начинают налагать на энергосистемы общего пользования и инфраструктуру кампуса. Преподаватели требуют расширения площадей, увеличения электрических мощностей и специализированных средств охлаждения для мощных компьютеров. В ходе переговоров, проведенных недавно Латимером с представителями фирм Intel, AMD, Dell и Sun относительно его планов приобретения новых компьютерных кластеров, проблема энергопотребления занимала одно из первых мест.

Решение № 2: Новейшие методы охлаждения

В сентябре 2005 года должностные лица Национальной лаборатории Лоренса Ливермора включили один из самых мощных в мире суперкомпьютеров. Эта система, получившая название ASC Purple и предназначенная для моделирования ядерных реакций, потребляла так много энергии (около 4,8 МВт), что представители местного коммунального предприятия Pacific Gas & Electric приехали справиться о том, что происходит. «Они попросили нас известить их, когда мы отключим эту машину», — рассказывает Марк Зигер, помощник заместителя руководителя лаборатории по современным технологиям.

Мало того, ASC Purple генерирует массу тепла. Поэтому Зигер и его коллеги разрабатывают методы охлаждения системы, более эффективные, нежели привычные кондиционеры. Лаборатория испытывает новые блоки охлаждения для ASC Purple и для второго по мощности компьютера BlueGene/ L, который был создан на базе потребляющих меньше энергии микросхем IBM, но, тем не менее, генерирует много тепла. Недавно лаборатория вложила средства в систему охлаждения распылением; это экспериментальный метод, предусматривающий преобразование излучаемого компьютером тепла в пар с последующей конденсацией его вдалеке от вычислительной системы. Зигер утверждает, что новый метод позволит отказаться от использования систем кондиционирования воздуха, даст лаборатории возможность сократить расходы на охлаждение на 70%.

Не только суперкомпьютеры создают суперпроблемы с охлаждением. Тисдейл из компании NewEnergy Associates утверждает, что организация адекватного и эффективного охлаждения — один из самых сложных вопросов, которые приходится решать работникам центров обработки данных. Это связано с тем, что, потребляя все больше энергии, серверы излучают все больше тепла и менеджерам вычислительных центров приходится использовать дополнительную энергию для охлаждения этих центров. «Мы оказались между молотом и наковальней», — невесело шутит Фроутан из фирмы Rackspace.

Для решения проблем охлаждения более типичных центров обработки данных производители аппаратных компонентов, такие как HP, IBM, Silicon Graphics и Egenera предлагают или разрабатывают системы охлаждения с применением жидкости. Охлаждение воздуха с помощью жидкости, предусматривающее использование воды, это старый метод, который вновь обретает популярность, поскольку он более эффективен, чем кондиционирование воздуха. «Модульная система охлаждения корпорации HP крепится сбоку на монтажной стойке компьютеров HP и образует наполненную холодным воздухом герметическую камеру, изолированную от остальных компонентов центра обработки данных», — поясняет Пол Перез, вице-президент по средствам хранения, сетям и инфраструктуре подразделения Hewlett-Packard Industry Standard Server group.

Полезно также использовать более эффективные серверы. Весной 2005 года Тисдейл обнаружил, что установка дополнительных систем кондиционирования воздуха в его вычислительных центрах невозможна. И если раньше он полагал, что главным фактором, ограничивающим его деятельность, будет нехватка физического пространства, то теперь Тисдейл уверен, что если в его хозяйстве когда-либо произойдет сбой в электроснабжении, главная проблема будет состоять в том, как не допустить отключения кондиционеров. В хьюстонском вычислительном центре Тисдейл заменил все 22 сервера компании на базе процессоров Intel двумя серверами на основе двухъядерных процессоров Sun Fire X4200, входящими в разработанное корпорацией Sun новое семейство Galaxy. По словам Тисдейла, новые серверы отличаются более высокой экономичностью. И поэтому, когда он предложил установить такие серверы в Атланте, то аргументировал это тем, что в таком случае не придется приобретать более мощный кондиционер, который будет потреблять еще больше энергии. Тисдейл заявил, что по прикидкам специалистов компании, этот шаг позволит добиться экономии электричества и снижения теплоизлучения на 70-84%.

Мало того, существуют более эффективные способы использования традиционных устройств кондиционирования воздуха. Нейл Расмуссен, главный технолог и соучредитель фирмы American Power Conversion (APC), специализирующейся на поставке систем охлаждения и управления энергопотреблением для центров обработки данных, рекомендует директорам информационных служб рассмотреть вопрос о перепланировке систем кондиционирования воздуха, особенно в процессе развертывания нового оборудования с более высокой плотностью размещения.

«Вместо того чтобы охлаждать 30 кв. метров пространства, разумнее сосредоточить усилия на ?горячих точках?», — соглашается Вернон Тернер, вице-президент и генеральный менеджер группы корпоративных вычислений в IDC. «Традиционные блоки охлаждения располагаются в уголке и подают воздух в направлении серверов, — поясняет Расмуссен. — А это абсолютно неэффективно и представляет собой недопустимую растрату энергии». Расмуссен считает, что самый эффективный способ охлаждения серверов обеспечивают модульные решения, когда охлаждающие блоки располагаются в непосредственной близости от каждого источника тепла.

С другой стороны, добавляет он, если центры обработки данных расположены в более холодных климатических зонах, ИТ-руководителям следует использовать кондиционеры воздуха, способные функционировать в «экономичных режимах»; таким образом можно добиться снижения энергопотребления в холодные зимние месяцы.

Современные модели кондиционеров воздуха оснащаются компрессорами, вентиляторами и насосами, которые могут работать с большей или меньшей нагрузкой в зависимости от температуры окружающей среды.

Решение №3: Более эффективный центр обработки данных

Подобно старым автомобилям, которые расходуют горючее не столь экономично, как новые модели, большинство центров обработки данных в США расходуют гораздо больше энергии, чем следовало бы. Согласно итогам исследования 19 вычислительных центров, проведенного консалтинговой компанией Uptime Institute, на каждый кВт энергии, израсходованной на вычисления, приходится 1,4 кВт, потраченных впустую. Это примерно в два раза больше, чем расчетные потери энергии.

Однако многие люди пока не готовы выбросить на свалку свои старые автомобили. Сходным образом многие компании не хотят избавиться от своих старых вычислительных центров и построить новые, более эффективные. «Мы еще не достигли той стадии, когда создание абсолютно новых центров обработки данных на месте большинства старых целесообразно с финансовой точки зрения», — утверждает Фроутан из компании Rackspace. Поэтому для большинства компаний дорога к созданию ориентированных на сбережение энергии центров обработки данных будет довольно длинной. По мнению Тисдейла из Фирмы NewEnergy Associate, люди будут действовать примерно так: за один раз выводить из эксплуатации по семь устаревших серверов в одном вычислительном центре и заменять их более экономичным оборудованием. Но в перестройку центра обработки данных входит также получение максимальной отдачи от консолидации серверов и, более конкретно, от использования программных средств виртуализации.

Виртуализация — это технология, позволяющая нескольким операционным системам сосуществовать на одном сервере. Фроутан утверждает, что виртуализация поможет сотрудникам его центров обработки данных обходиться меньшим числом серверов за счет того, что на одной машине можно будет выполнять большее число задач. Кроме того, заявляет он, энергию можно экономить и за счет переноса выполнения задач с низким приоритетом на ночное время, когда стоимость энергии может быть в три раза ниже, чем днем. Тернер из компании IDC согласен с тем, что директорам информационных служб следует повысить коэффициент использования серверов с тем, чтобы снизить затраты на энергию и охлаждение. К примеру, вместо того чтобы создавать один пул серверов для размещения Web-сайтов и второй — для разработки приложений, они должны использовать средства виртуализации с тем, чтобы распределять между серверами различные типы рабочих нагрузок.

Наконец, советует Расмуссен из фирмы APC, если вы создаете новый центр обработки данных, лучше всего проектировать его для размещения оборудования, которое необходимо вам прямо сейчас, а не идти по пути многих компаний, которые строят вычислительные центры «на вырост». Акцентируя модульный подход к созданию архитектуры для серверов и средств хранения данных, предполагающий, что оборудование можно добавлять по мере надобности, компания сможет избежать необоснованных расходов и в то же время быть готовой к росту.

Как начать экономить

Занимаясь поиском оборудования и схем организации для создания ориентированного на энергосбережение центра обработки данных, ИТ-руководитель должен составить представление о том, какие решения наилучшим образом подойдут для его организации. В процессе сбора необходимой информации ему нужно разработать метрики для энергопотребления в своих центрах обработки данных и определить, какое количество энергии они потребляют.

Существует немного общепринятых метрик для контроля энергопотребления. Но, по словам Тернера, такие метрики могут включать мощность в Вт, приходящуюся на один кв. метр, рассчитанную как произведение числа серверов и мощности каждого, деленное на общую площадь центра обработки данных, выраженную в кв. метрах. Специалисты Sun разработали метод, именуемый SWaP (в название вошли слова Space, Wattage и Performance). Компания утверждает, что этот метод, позволяющий пользователям рассчитывать энергопотребление и эксплуатационные характеристики их серверов, может быть использован для измерения эффективности центра обработки данных. Джон Фаулер, исполнительный вице-президент подразделения Sun, занимающегося сетевыми системами, заявляет, что наиболее прогрессивные клиенты устанавливают в своих центрах обработки данных счетчики энергии, чтобы получить более точные результаты.

Кроме того, стоит проявлять интерес к энергосберегающим характеристикам изделий при их покупке. При выяснении вопроса о том, какое количество энергии будет потреблять новый сервер, «не стоит полагаться только на мнение поставщика», — предупреждает Фаулер. Он предлагает перед приобретением сервера разработать метод для его тестирования и определения его энергопотребления. К сожалению, в отрасли все еще не закончена разработка методов сравнения серверов от различных поставщиков в реальной среде.

Наконец, заявления поставщиков об экологической безвредности их изделий могут иметь лишь незначительный эффект. Так, Тисдейла из фирмы NewEnergy до сих пор интересует в первую очередь вопрос о том, как поддерживать производительность сервера. Но для него важно, что новое оборудование поможет ему увеличить вычислительные ресурсы, не повышая существующий уровень потребления энергии. «Как и многие, - признается он, - я не заинтересован в таком решении, когда серверы пришлось бы отключать».


Пул серверов, работающих на солнечной энергии

Как одна компания отключила свой центр обработки данных от промышленной сети электропитания

Фил Нейл и его жена Шерри пришли к заключению, что «зеленые» технологии вполне могут быть поставлены на службу центрам обработки данных. Девять лет назад супруги организовали свою компанию Affordable Internet Services Online (AISO), специализирующуюся на оказании услуг по организации и размещению Web-сайтов, и в 2001 году перевели ее на использование солнечной энергии. Среди клиентов этой фирмы — киностудия, расположенная в калифорнийском городе Лагуна-Бич, а также компания Veggiedate. org, представляющая собой службу знакомств для вегетарианцев. 200 серверов, функционирующих в центре обработки данных компании, питаются энергией, генерируемой 120 фотоэлектрическими панелями, которые смонтированы на платформах, размещенных вокруг вычислительного центра.

По словам Нейла, панели вырабатывают достаточно энергии для обеспечения всех потребностей центра обработки данных, включая офисы и кондиционеры. В случае отказа AISO может перейти на аварийный генератор, работающий на природном газе, или — в самом крайнем случае — подключиться к сети местной электростанции. Следует отметить, что Internet-компания использует серверы, оснащенные энергосберегающими процессорами Advance Micro Devices Opteron от Open Source Storage. «Мы создали экологичную компанию, потому что сочли это достойным делом», — признается Нейл. Он понимает, что центр обработки данных, функционирующий на солнечной энергии, решение не для всякого: первоначальные издержки могут быть весьма высокими. В 2001 году установка 120 солнечных батарей для обслуживания центра обработки данных, занимающего 600 кв. метров, обошлась ему в 100 тыс. долл. Эти инвестиции окупились благодаря низкой стоимости энергии, а забота о сохранении окружающей среды помогла ему привлечь ряд дополнительных клиентов. Но он признает, что крупным вычислительным центрам с тысячами серверов переход на использование солнечной энергии будет стоить немалых денег.

А теперь Нейл поднимает «зеленую волну» на новый уровень. Речь идет о крыше вычислительного центра, которую он хочет засыпать грунтом толщиной в 12,5 см. и высадить там засухоустойчивые растения. «Так мы сможем снизить затраты на охлаждение помещений аж на 60%», — поясняет он.


SUSANNAH PATTON. Powering Down. CIO Magazine. April 15, 2006

Поделитесь материалом с коллегами и друзьями