Участники дискуссии уверены: каждый мегаЦОД уникален и любой проект построения подобного комплекса имеет индивидуальные особенности
Участники дискуссии уверены: каждый мегаЦОД уникален и любой проект построения подобного комплекса имеет индивидуальные особенности

Таким образом, на рынке сформировался особый класс ЦОД высокой мощности, потребляющих более одного мегаватт-часа электроэнергии. Особенности проектирования, строительства и эксплуатации таких мегаЦОД обсуждались на специальном заседании форума «Мир ЦОД 2012», организованного издательством «Открытые системы».

Присутствующие на заседании эксперты сделали вывод, что каждый мегаЦОД уникален, и любой проект построения подобного комплекса имеет индивидуальные особенности.

«Задача построения мегаЦОД очень сложна, и ее трудно решить простым суммированием типовых решений», — полагает Олег Становов, генеральный директор компании Chloride Rus. Он указывает, что при строительстве больших дата-центров объединение нескольких типовых решений в более мощные интегрированные структуры чревато серьезными рисками. Такими структурами трудно управлять, они плохо масштабируются, сложны и ненадежны в эксплуатации. Правильнее строить мегаЦОД с опорой на адаптивные решения повышенной мощности с высокой степенью масштабируемости, разработанные для конкретных инженерных или вычислительных задач.

Специалисты также отметили, что в больших ЦОД острее, чем в малых, стоит проблема энергообеспечения и энергоэффективности — срабатывает эффект масштаба. Для повышения надежности электроснабжения иногда целесообразно вообще отказаться от подключения дата-центра к городским электросетям и организовать самостоятельную выработку электроэнергии на газогенераторных установках, считает Ричард ван Вагенинген, генеральный директор компании Linxdatacenter. МегаЦОД этой компании в Санкт-Петербурге оказался расположен рядом с ниткой газопровода. Столь благоприятным обстоятельством решено было воспользоваться. В итоге вырабатываемое газогенератором электричество для питания ЦОД обходится Linxdatacenter дешевле, чем городское.

«Использование газогенераторов к тому же весьма экологично», — подчеркнул ван Вагенинген.

В крупных ЦОД экономия на долях процента от объема потребяемого электричества оборачивается большой выгодой, однако в построении энергоэффективного дата-центра многое зависит от его профориентации. Известен пример, когда компания Yahoo построила свой ЦОД в форме курятника, без применения искусственного кондиционирования. Но в этом случае Yahoo! использовала специально заказанные «теплолюбивые» серверы, способные работать при температуре 50-60 °C.

Такой подход оправдан, если работа вычислительного оборудования непосредственно связана с получением прибыли, как в случае с интернет-компанией. И он совершенно неприемлем в корпоративной среде, где ЦОД выполняет функции относительно далекие от зарабатывания денег, но абсолютно необходимые для бесперебойной поддержки ключевых бизнес-процессов предприятия. Если Yahoo! может позволить себе часовой простой каких-то серверов в результате их перегрева, то финансовая организация понесет из-за остановки ответственных серверов колоссальные потери даже от минутной задержки в обслуживании клиентов.

Повинуясь этой логике, в крупнейшем в Европе ЦОД Сбербанка «Южный порт» кондиционирование организовали на высшем уровне. В данном проекте была задействована инновационная воздухообменная система охлаждения Plate Exchanger Aire Handling Units. В дата-центре было смонтировано 28 машин такого типа, каждая из них способна генерировать 550 кВт холода. Ежегодная экономия от внедрения этой революционной схемы охлаждения, по словам Сергея Шуршалина, директора проекта ЦОД Сбербанка России, составила около 170 МВт*ч.

В ходе дискуссии также рассматривалась возможность использовать жидкостное охлаждение вычислительного оборудования в больших ЦОД. Вода, как известно, обладает аномально высокой теплоемкостью, поэтому ее использование в качестве хладагента, подведенного к вычислительным устройствам, могло бы радикально снизить затраты на климатическое обеспечение ЦОД. Но большинство экспертов высказалось против подобных систем. Для отдельно стоящих суперкомпьютеров применение водяного охлаждения, вероятно, оправданно. Но такие машины работают в особом режиме, как правило выполняя узкий круг научных задач с незначительными по времени, но масштабными пиковыми нагрузками. В коммерческих и корпоративных ЦОД характер потребления энергии совершенно иной, отметил Александр Ласый, заместитель директора департамента интеллектуальных зданий компании «Крок». Поэтому и ущерб от возможной протечки в корпоративных ЦОД может оказаться несопоставимым с потерей данных какого-то исследовательского эксперимента.

Завершая дискуссию, специалисты отметили, что, хотя строительство ЦОД большой мощности сопряжено с определенными технологическими и организационными проблемами, решения для большинства из них уже известны или могут быть найдены.

Поделитесь материалом с коллегами и друзьями