Программа СКИФ продемонстрировала возможности успешного сотрудничества в рамках Союза России и Белоруссии
Кластер Скиф К-500, достигший на тестах Linpack производительности в 425 GFLOPS и попавший в Top500, состоит из 64 узлов, соединенных платами SCI по топологии трехмерного тора

Союзное государство России и Белоруссии часто критикуется как «неэффективное» образование. Однако оно демонстрирует возможности успешного сотрудничества, в частности, и в компьютерной сфере. Это, собственно говоря, и неудивительно: в России ИТ-отрасль довольно успешно развивается в последние годы, а в Белоруссии еще осталось в неразваленном состоянии «минрадиопромовское» наследство.

Один из примеров такого успешного сотрудничества — СКИФ: программа Союзного государства «Разработка и освоение в серийном производстве высокопроизводительных вычислительных систем с параллельной архитектурой (суперкомпьютеров) и создание прикладных программно-аппаратных комплексов на их основе». Особо стоит отметить слова «в серийном производстве», то есть речь не идет об единичных экземплярах типа созданного в России кластера МВС-1000М на базе 768 процессоров Alpha 21264 с тактовой частотой 667 МГц, который занимает 189 место в известном рейтинге Top500.

Кластерная система СКИФ К-500 находится в Top500 на более скромном 407 месте, но зато этот компьютер готов к запуску в серию. В списке Top500, кстати, представлена еще одна суперкомпьютерная система (HP Superdome с 256 процессорами и производительностью 439 GFLOPS), установленная в нашей стране, а именно — в Сбербанке.

Что уже сделано

В декабре были подведены некоторые итоги четырехлетнего выполнения суперкомпьютерной программы СКИФ, которая, очевидно, носила характер не только чисто технический и экономический, но и политический. Это пока, увы, не слишком частый случай, когда политика впрямую способствует экономике.

Если говорить вкратце о созданном в ходе выполнения программы аппаратном обеспечении, то в первую очередь надо указать на построение 12 различных моделей с пиковой производительностью от 5 до 714 GFLOPS, относящихся к двум поколениям систем — «Ряд 1» и «Ряд 2». Читателям со стажем эти названия напомнят о линейках ЕС ЭВМ (кстати, специалисты НИЦЭВТ, одного из разработчиков компьютеров ЕС, также вовлечены в программу СКИФ).

За прошедшее время была также создана необходимая конструкторская документация, позволяющая запустить в производство различные модели кластерных систем, отвечающих разным уровням производительности. Все они основаны на х86-совместимых микропроцессорах от Intel и AMD и могут поставляться с базовым программным обеспечением на основе популярных открытых программных продуктов — ОС Linux, системы пакетных очередей OpenPBS, параллельной файловой системы PVFS и др.

Интересно, что в ОАО НИЦЭВТ освоено производство различных моделей сетевых адаптеров SCI для соединения узлов кластеров, функционально эквивалентных аналогичной продукции компании Dolphin. Это является хорошей демонстрацией возможностей частичного импортозамещения.

Важнейшей частью программы СКИФ является разработка прикладных программных комплексов для создаваемых кластеров. Эти программные комплексы охватывают не только традиционные сферы научно-технических вычислений (аэродинамику плохо обтекаемых тел, например, парашютов; задачи гидрометеорологии; расчет химических реакторов и т. д.), но и задачи искусственного интеллекта.

Проект нужно продолжать

Кластер СКИФ К-500, достигший на тестах Linpack производительности в 425 GFLOPS и попавший в Top500, состоит из 64 узлов, соединенных платами SCI по топологии трехмерного тора. В кластере используются процессоры Intel Xeon с тактовой частотой 2,8 ГГц, а оперативная память в каждом узле составляет 2,8 Гбайт.

В узлах кластера используются стоечный конструктив с формфактором 1U и ряд специализированных конструктивно-механических и термических решений. Комплекс К-500 является существенно более компактным, чем две другие попавшие в Top500 российские инсталляции, он размещается в двух основных и одной вспомогательной стойках. В других моделях кластерных систем СКИФ используются узлы на базе процессоров AMD Opteron и Athlon MP, а также Intel Pentium III.

Едва ли не самым важным результатом реализации программы СКИФ директор ИПС РАН Сергей Абрамов, являющийся исполнительным директором СКИФ от РФ, справедливо назвал формирование высококвалифицированного коллектива разработчиков, которые успешно реализовали всю программу при суммарном объеме финансирования за 4 года всего примерно в 10 млн. долл. (для межгосударственной программы такого уровня это достаточно скромно).

Другим важным моментом является ликвидация отставания от современного западного уровня. Однако, чтобы не останавливаться на достигнутом, как подчеркивают участники программы, необходимо продление проекта на 2005 год и принятие в будущем новой программы СКИФ-2. О намерении поддержать такую программу уже заявил государственный секретарь Союзного государства Павел Бородин. Действительно, пока политики решают, как и когда будут объединяться наши государства, нам нужно делать свое дело вместе с белорусскими коллегами, что в данном случае, вне всякого сомнения, взаимовыгодно.


В Банке России

Национальная платежная система Банка России существенно децентрализована — во всех регионах функционируют независимые сегменты, выполненные на своей программно-аппаратной платформе. Такое разрозненное хозяйство дорого поддерживать и развивать, поэтому руководство Центробанка решило перевести платежную систему на единую платформу. К надежности оборудования, на котором она будет функционировать, предъявляются очень высокие требования. Для их удовлетворения в 2002 году Центробанк принял решение создать географически распределенный катастрофоустойчивый кластер.

Кластер строили полтора года, и 18 декабря 2003 Центробанк объявил о начале его коммерческой эксплуатации. Построен кластер в Санкт-Петербурге в качестве модернизации существовавшего там и уже устаревшего сегмента платежной системы. Со временем ЦБ собирается построить в различных городах России три узла кластера, каждый из которых будет соединен с другими посредством оптических каналов большой пропускной способности. В качестве платформы во всех узлах планируется использовать серверы IBM zSeries.

Общая концепция географически распределенного кластера разработана Институтом проблем информатики РАН; получившееся решение может быть легко расширено до необходимых размеров. Текущие расходы на построение катастрофоустойчивого кластера не превышают 10 млн. долл.

— Валерий Коржов,Computerworld Россия

Поделитесь материалом с коллегами и друзьями