Созданная в "ГВЦ Энергетики" инфраструктура, основанная на сетях хранения данных, позволит компании оказывать услуги аутсорсинга внешним организациям.

Для успешного внедрения технологии Grid в «ГВЦ Энергетики» была создана инфраструктура, основанная на сетях хранения данных и обеспечивающая динамическое перераспределение вычислительных ресурсов между различными группами пользователей. Эта инфраструктура позволит компании оказывать услуги аутсорсинга внешним организациям.

Преобразования российской экономики, в результате которых постоянно возрастает потребность в поддержке информационными технологиями повседневных требований бизнеса, приводят к изменению структуры традиционно существовавших в нашей стране вычислительных центров. «Поскольку данные предприятий становятся их основными информационными активами, мы все дальше уходим от превалировавшей ранее концепции пакетных вычислений, превращая оставшиеся российские вычислительные центры в центры обработки данных и хранения корпоративной информации», — считает Борис Куранин, технический директор компании «ГВЦ Энергетики».

Это акционерное общество было создано в 1993 году как 100-процентное дочернее предприятие РАО «ЕЭС России». Ее предшественниками были Главный информационно-вычислительный центр по управлению энергетическим строительством Минэнерго СССР и Вычислительный центр электроэнергетики Главного технического управления того же министерства. Основная задача, которая ставилась перед ГВЦ, — информационное обслуживание центрального аппарата РАО ЕЭС и эксплуатация вычислительных средств этой организации, большая часть серверных систем которой расположена на территории ГВЦ.

После произошедшей в 2000 году смены руководства ГВЦ, где еще почти до середины 90-х использовались «российские мэйнфреймы» — ЕС ЭВМ, была поставлена задача превращения компании в современную бизнес-структуру, способную осуществлять свою деятельность в условиях рыночной конкуренции в области информационных технологий. Реализация этой концепции привела не только к необходимости увеличения числа организаций-клиентов, основными из которых, наряду с РАО «ЕЭС России», являлись Федеральная сетевая компания и Федеральная энергетическая комиссия РФ, но и к требованию расширения спектра предоставляемых услуг.

В связи с этим встал вопрос о повышении эффективности всех видов деятельности ГВЦ, одним из которых является разработка ИТ и программного обеспечения, в том числе для АСУ производственных процессов энергетических предприятий, включая автоматизированные системы контроля и учета потребления электроэнергии.

Не менее важной стала проблема оптимизации инфраструктуры, способствующая уменьшению суммарной стоимости использования вычислительных средств, упрощению процессов их эксплуатации и более рациональному использованию всех имеющихся ресурсов для аутсорсингового обслуживания заказчиков, к числу которых относятся предприятия как энергетики, так и других отраслей промышленности и сферы управления.

Инфраструктура

«Проведение комплекса работ, в которых участвовало в среднем десять человек, заняло около года. Возможно, нам потребовалось бы больше времени, если бы не постоянная поддержка сервисной службы московского представительства EMC»

— Ирина Малиновская

«ГВЦ Энергетики» — одно из тех многочисленных российских организаций, где от ЕС ЭВМ перешли к распределенным вычислениям. Появление и всеобщее распространение персональных компьютеров устранило ограничения, связанные прежде всего с недостаточным объемом оперативной памяти ЕС ЭВМ, которые существенно затрудняли решение задач оптимизации режимов работы энергетических и линейных объектов. Поскольку все основные алгоритмы были написаны на языке Фортран, стал возможен их перенос на ПК с добавлением необходимых для их работы сервисов.

Так же поступили и с программными приложениями, предназначенными для сбора, обработки, хранения и передачи в РАО «ЕЭС России» учетных данных всей электроэнергетической отрасли нашей страны. Сохранность этих данных в ГВЦ и оперативное предоставление в РАО ЕЭС необходимой информации приобретает все большее значение и оказывает значительное влияние на выполнение производственных планов энергетического гиганта, позволяя, в частности, осуществлять своевременную поставку угля и других топливных ресурсов, обеспечивать поддержание работоспособности технологического оборудования, а также способствовать рациональному распределению энергопотоков.

Исторически сложилось так, что переход от ЕС ЭВМ к клиент-серверной архитектуре породил формирование в ГВЦ технологически идентичных, но разобщенных вычислительных узлов, каждый из которых решал вполне определенные задачи. К задачам относятся, например, поддержка баз данных, электронной почты и коллективной работы пользователей РАО «ЕЭС России», организация доступа в Internet, предоставление файловых и принтерных сервисов, обеспечение информационными ресурсами собственных подразделений разработки приложений. В состав типового узла входят серверы SunFire, Alpha или Intel-системы, непосредственно связанные с ними устройства хранения и ленточные библиотеки.

«С ростом числа решаемых задач проявилась тенденция увеличения количества подобных узлов. Потенциально это могло привести не только к значительным финансовым затратам, обусловленным приобретением и обслуживанием программных и аппаратных средств, включая системы хранения, но и к проблемам обеспечения безопасности, связанным с возможностью деградации надежности хранения информации, так и с трудностями корректного разграничения прав доступа к ней различных групп пользователей. Наряду с этим архитектура обладает крайне ограниченными возможностями перераспределения ресурсов хранения между узлами и не обеспечивает приемлемого времени восстановления информации. Централизация хранения и обслуживания данных позволила бы решить значительную часть этих проблем», — считает начальник департамента вычислительного комплекса Сергей Колотилин.

Все эти факторы послужили исходными предпосылками для создания сети хранения, консолидирующей ресурсы хранения данных и осуществляющей совместный доступ к ним серверов, работающих под управлением различных операционных систем. «Мы, конечно, много слышали об этой технологии, но прежде, чем предлагать ее заказчикам, должны были внедрить и опробовать основанные на ней решения на собственных приложениях», — поясняет Куранин.

Сеть хранения данных

«Я бы сравнил создание сети хранения с консолидаций бюджета предприятия, когда гораздо эффективней иметь общий денежный резерв, а не распылять его между отдельными подразделениями»

— Сергей Колотилин

Основной спецификой аутсорсинга, а также предоставления в аренду вычислительных мощностей и приложений является поддержка разнообразного набора задач клиентов с различным уровнем требований к информационному обслуживанию. Одной из составляющих прибыльности такого бизнеса, является обеспечение высокой экономической эффективности использования имеющихся технических и людских ресурсов, а залогом его успеха служит своевременное технологическое переоснащение ГВЦ.

«Весьма перспективной в этом смысле является технология Grid, позволяющая выполнять динамическое перераспределение вычислительных ресурсов между различными группами пользователей. Однако для ее успешного внедрения необходима соответствующая инфраструктура, в частности сети хранения данных», — полагает заместитель начальника департамента вычислительного комплекса Ирина Малиновская, осуществлявшая техническое руководство развертыванием сети хранения.

При ее создании не только решалась задача консолидации данных, но и проводилась разработка катастрофоустойчивого решения для РАО ЕЭС. Значительное внимание уделялось масштабированию дисковых массивов и сохранности вложенных в новую технологию средств. Последние два фактора имели большое значение для «ГВЦ Энергетики», поскольку начальная стоимость подобного проекта, осуществляемого в рамках собственной инвестиционной программы, составляет более сотни тысяч долларов.

В результате анализа предлагаемых на рынке продуктов было принято решение о создании сети хранения с использованием дисковых массивов ЕМС Clariion CX400 (их информационная емкость наращивается от 180 Гбайт до 7,8 Тбайт). По мере роста информационной нагрузки со временем к инфраструктуре могут быть добавлены более емкие устройства, например, Symmetrix, которые возьмут на себя обслуживание возросшей нагрузки, освободив Clariion CX400 для выполнения быстрого резервного копирования. Для построения самой сети использовались коммутаторы Brocade и адаптеры хост-машин компании QLogic. Кроме оборудования SAN куплены четыре сервера-лезвия отечественной сборки (их стоимость составляла не больше 5% цены всех аппаратных средств SAN), а также лицензии на ПО Navisphere и MirrorView и ряд продуктов для архивирования и резервного копирования.

Катастрофоустойчивая память

Работающая в настоящее время сеть хранения взаимодействует с серверами c операционными системами Linux SuSE SLES 8.1 и Windows 2000, используемыми для нужд ГВЦ. Организовано централизованное обслуживание данных, реализованы управление распределением дискового пространства между серверами, «зеркалирование» томов без влияния на работу пользователей, хранение актуальных резервных копий активно используемых логических дисков. Также созданы процедуры восстановления работоспособности прикладных задач, исполняемых связанными с SAN серверами, в случае отказа любого из входящих в состав системы устройств.

Благодаря возможностям ПО SANCopy для Clariion CX400, наличию общей транспортной среды Fiber Channel и собственной разработке структуры каталогов прикладных задач, стало возможно использование систем Clariion CX400 теми приложениями, которые раньше работали только со связанными с серверами Sun дисковыми массивами StorEdge Т3.

Для решения задач РАО «ЕЭС России», где продукты Oracle относятся к корпоративным ИТ-стандартам, в четырех серверах-лезвиях, использующих дисковое пространство массивов СХ400, осуществлена инсталляция СУБД Оrасlе 9i для ОС Unix в режиме кластеризации баз данных на основе Oracle Real Application Cluster.

В настоящий момент вычислительная система полностью готова к переходу в катастрофоустойчивый режим работы с размещением входящих в ее состав средств на двух площадках, расстояние между которыми составляет 18 км. Обе площадки расположены в Москве. Основной центр обработки данных располагается в принадлежащем ГВЦ здании на Китайгородском проезде, в то время как резервный — в здании РАО «ЕЭС России» на проспекте Вернадского. Оба объекта связаны проложенным по различным маршрутам волоконно-оптическим каналом.

«Проведение комплекса работ, в которых участвовало в среднем десять человек, заняло около года. Возможно, нам потребовалось бы больше времени, если бы не постоянная поддержка сервисной службы московского представительства EMC», — резюмирует Ирина Малиновская.

Ближайшие перспективы

В «ГВЦ Энергетики» сделаны первые шаги для реализации концепции Grid и проведена подготовительная работа по внедрению СУБД Oracle Datadase 10g.

Комментируя создание SAN, Борис Куранин подчеркивает, что специалисты ГВЦ готовы в течение полутора-двух месяцев внедрить катастрофоустойчивое решение в РАО ЕЭС. Эти работы, как ожидают, могут начаться уже в четвертом квартале.

«Реализация проекта в области SAN, выполненного департаментом вычислительного комплекса, являются существенным вкладом в увеличения доходности при работе с «внешними» заказчиками, число которых, согласно пожеланиям акционеров, должно постоянно увеличиваться», — говорит он.

Следует отметить, что если еще два года назад доля доходов от услуг для РАО ЕЭС достигала 90% выручки «ГВЦ Энергетики», то в 2003 году, когда этот показатель составил почти 234 млн. руб. (увеличившись на 8,3% по сравнению с предыдущим годом), доля РАО ЕЭС уменьшилась до 71%. В текущем году ожидается ее снижение до 50%.

На основании полученного опыта специалисты ГВЦ намерены выйти на рынок с тиражируемыми решениями на основе кластерных продуктов и сетей хранения данных. К ним уже проявили интерес такие компании, как ЛУКОЙЛ и «Нижфарм».

Алексей Чернобровцев — обозреватель еженедельника Computerworld Россия, tchern@aha.ru

Поделитесь материалом с коллегами и друзьями