Борис Шабанов: «Вычислительная инфраструктура РАН развивается; уже проложен канал в ВЦ МГУ, объединяющий крупнейшие суперкомпьютеры страны»Анонсированная 4 сентября прошлого года инициатива «Университетский кластер» накануне Татьяниного дня (известного также как День студента) получила обещанное материальное воплощение. Состояла инициатива в том, что Hewlett-Packard выделяет вузам 12 мини-кластеров, компания «Синтерра» обеспечивает всем участникам высокоскоростную связь с компьютером МВС 100К, установленным в Межведомственном суперкомпьютерном центре РАН и являющимся основным ресурсным узлом, а Центр компетенции по параллельным и распределенным вычислениям Института системного программирования проводит обучение по курсам, связанным с освоением технологий, используемых в рамках программы. Кроме того, заместитель директора MCЦ Борис Шабанов заверил, что когда в 2010 году в здании президиума РАН будет установлен новый суперкомпьютер с пиковой производительностью 0,6 TFLOPS, то его ресурсы также будут доступны участникам программы.

22 января в президиум РАН были приглашены представители 32 учебных заведений, каждый из которых получил сертификат участника, а 12 — еще и компьютер. Выбор тех, кому его подарить, определяли не столько известность учебного заведения или качество предложенной заявки, сколько принцип «кому он нужнее».

Предваряя вручение, директор ИСП РАН Виктор Иванников выразил надежду на то, что результатом инициативы станет создание сообщества отечественных специалистов, заинтересованных в развитии высокопроизводительных вычислений (High Perfomance Computing, HPC). По его мнению, возможно, именно в этом и заключена главная ценность объединения. Оуэн Кемп, глава представительства HP, подчеркнул, что раздачей компьютеров участие его компании в инициативе не ограничивается, он пообещал оказывать и впредь содействие в преодолении отставания отечественных университетов от западных в области высокопроизводительных вычислений.

Наличие этого отставания признают не все члены отечественного сообщества, приводя в качестве конртраргументов примеры удачного решения тех или иных задач моделирования. Можно согласиться с тем, что на пользовательском уровне, в части создания приложений и умения использовать свободное программное обеспечение, заметного разрыва действительно нет, но и о каком-то существенном собственном вкладе в копилку знаний по HPC специалистов из России говорить не приходится. Очевидно, что с появлением в ближайшие годы процессоров, насчитывающих десятки и сотни ядер, будут востребованы специалисты, способные создавать необходимое для них ПО. В этих условиях образованию необходимо работать на опережение, действия в указанном направлении следует начинать уже сегодня, скорее всего, в этом и состоит первейшая задача формируемого сообщества «Университетский кластер».

Помимо формальной части, собрание имело и практическую сторону. В своих выступлениях представители ИСП РАН и «Синтерры» разъяснили присутствующим, какую именно помощь они оказывают, а несколько участников конференции поделились опытом создания и эксплуатации кластеров. Представители HP уточнили состав передаваемых компьютеров. В стойке HP BLc3000 Twr CTO Enclosure собраны два сервера-лезвия ProLiant 2xBL220c, служащие вычислительными узлами кластера, а сервер ProLiant BL260c используется в качестве управляющего узла. Пиковая производительность кластера — 0,3 TFLOPS, добавлением еще шести вычислительных узлов ее можно поднять до 1,2 TFLOPS. В данной комплектации общее число ядер — 32, общий размер памяти 32 Гбайт, общий объем дисковой памяти 480 Гбайт. На кластер установлены ОС Linux, программное обеспечение OSCAR, которое поддерживает кластеры типа Beowulf, в системе используется интерфейс обмена сообщениями MPI.