прототип суперкомпьютера петафлопсного диапазона производительности
В РСК ОРИЕНТИРУЮТСЯ на стандартные системные платы, технологии Intel и жидкостное охлаждение

МСЦ РАН — один из самых мощных российских суперкомпьютерных центров в сфере науки и образования, который обеспечивает поддержку научных исследований в институтах Академии, оказывает методическую помощь в использовании высокопроизводительных вычислительных систем, осуществляет разработки системного и прикладного ПО.

В последней редакции списка Top50, объявленной в начале апреля на конференции «Параллельные вычислительные технологии 2013», кластер МСЦ РАН с пиковой производительностью 523,8 TFLOPS занял второе место, уступив вычислительному комплексу с максимальной производительностью 1700,2 TFLOPS, созданному в МГУ компанией «Т-Платформы».

Разработчики подчеркивают, что новый кластер является крупнейшим за пределами США и одним из первых, где используются сопроцессоры Intel Xeon Phi. В глобальном рейтинге Top500 ему принадлежит 59-е место.

Сопроцессоры Xeon Phi на базе архитектуры Intel Many Integrated Core Architecture, предназначенные для совместной работы с центральными процессорами вычислительных систем, обеспечивают ускоренное выполнение математических и графических задач. В состав этих высокопроизводительных чипов, которые по планам Intel должны быть использованы для построения к 2018 году экзафлопсного суперкомпьютера, входят x86-совместимые и векторные процессорные ядра.

В каждом вычислительном узле нового кластера, созданном на основе стандартной серверной платы Intel S2600JF, установлены два восьмиядерных процессора Xeon E5-2690/2,9 ГГц, два сопроцессора Xeon Phi SE10X, содержащие по 61 ядру, твердотельный диск Intel SSD 330, обеспечена поддержка энергоэффективной оперативной памяти DDR3-1600 объемом 64 Гбайт.

Кластер МСЦ РАН содержит, по заявлениям РСК, 208 вычислительных узлов, более 3,3 тыс. вычислительных ядер процессоров Intel Xeon и более 25 тыс. ядер сопроцессоров Xeon Phi. Для передачи данных между узлами используются коммуникации FDR InfiniBand с быстродействием 56 Гбит/с, для управления и мониторинга — сети Ethernet. Кластер размещен на площади 20 кв. м.

Традиционным технологическим «коньком» в разработках РСК является жидкостное охлаждение вычислительных узлов, которое уже использовалось в суперкомпьютерах этой компании.

Благодаря новым процессорам и сопроцессорам Intel, экономичной памяти с пониженным напряжением питания и твердотельным накопителям энергоэффективность кластера составляет 1949,3 MFLOPS/Вт, что, как утверждают в РСК, более чем в пять раз превышает соответствующий показатель, ранее принадлежащей системе с жидкостным охлаждением на базе архитектуры «РСК Торнадо». МВС-10П занял в ноябре 2012 года 30-е место в мировом рейтинге энергоэффективных компьютеров Green500.

Жидкостное охлаждение, применяемое РСК, позволяет «сконцентрировать» 141 TFLOPS в одном кубическом метре стандартной стойки центра обработки данных. В кластере МСЦ РАН впервые использована система управления энергопотреблением «РСК ЭКОсистема», благодаря которой, по данным РСК, можно почти на четверть уменьшить суммарную стоимость владения вычислительным комплексом.

Новый суперкомпьютер приходит на смену кластеру МВС-100К с пиковой производительностью почти 228 TFLOPS. В настоящее время ресурсы этих вычислительных систем, загруженных больше чем на 92%, доступны 1022 пользователям из 109 организаций. По словам Бориса Шабанова, заместителя директора МСЦ РАН, потребность российских ученых в сверхпроизводительных вычислительных средствах постоянно растет.

В текущем году планируется довести пиковую производительность кластера до 1,45-2 PFLOPS, подчеркнул Шабанов и отметил, что ввод в действие к маю его второй очереди сделает этот вычислительный комплекс первым российским суперкомпьютером, преодолевшим рубеж 1 PFLOPS на тесте LINPACK.