Генеральный директор компании 'Т-Платформы' Всеволод Опанасенко готов к встрече с петакомпьютерами в следующем году и с экзакомпьютерами — в конце текущего десятилетия Мероприятие подтвердило гипертрофированное внимание политических лидеров к формальным показателям производительности и неготовность понять ограниченность той роли, которую играют такого рода высокопроизводительные кластеры в общем научном и технологическом процессе. При всем том, что современные суперкластеры превратились в сложнейшие инженерные сооружения, с идеологической точки зрения они не так далеки от первых "Беовульфов", собранных из обычных ПК, чтобы избавиться от хорошо известных врожденных слабостей этой архитектуры. Как бы ни были велики достижения "Т-Платформ" в конструировании, сборке и запуске в эксплуатацию "Ломоносова" (а это действительно так), успех этой молодой компании в отдельно взятой области нельзя делать предметом национальной гордости и отождествлять его с успехами всей отечественной ИТ-индустрии.

Открывая заседание, Грызлов подчеркнул, что пиковая производительность 420 TFLOPS и 350 TFLOPS на тесте Linpack, показанная "Ломоносовым", позволила России подняться до 12-го места в рейтинге Top 500. Он сообщил, что в бюджете 2011 года запланированы средства на повышение производительности "Ломоносова" до магической цифры в 1 PFLOPS, и добавил, что при доведении производительности до этого рубежа предпочтение будет отдано отечественному ПО и отечественным компонентам. Вслед за тем спикер Госдумы фактически подтвердил, что "гонка за петафлопом" в большей мере стимулирована соображениями престижа, нежели текущими запросами науки и производства: "Необходимо стимулировать спрос на суперкомпьютеры. Пока спрос на них отстает от предложения, причем спрос следует удовлетворять изделиями отечественного производства. А если будет спрос на технику и вычисления, то  возникнет и спрос на подготовку соответствующих специалистов". 

Выступавший следом ректор МГУ академик Виктор Садовничий постарался внести коррективы, он говорил о значимости для науки "Ломоносова" и уже работающего в МГУ кластера "Чебышев" и даже привел диаграмму, демонстрирующую момент полной загрузки последнего. Показательно, что на установке с пиковой производительностью 60 TFLOPS при этом работало более 300 задач. Иными словами, большинству из них нужны существенно меньшие ресурсы, а если так, то стоит ли ими загружать "Чебышева"? Увы, никто из членов Совета не сказал, есть ли хотя бы одна задача, которую нельзя решить без петафлопного компьютера, но при этом в речах выступавших уже звучала приставка "экза" с прицелом на конец текущего десятилетия. Для того чтобы выйти на этот уровень, в компании "Т-Платформы" готовят узлы с водяным охлаждением и собственное высокоскоростное межсоединение.

Работающий "Ломоносов" журналистам показан не был, а потому судить о нем приходится исключительно по опубликованным данным; впрочем, и их вполне достаточно для признания серьезности решенной инженерной задачи. Собранная установка действительно уникальна, к ней подведена мощность 5 МВт, сегодня она потребляет 1,5 МВт. Кластер состоит из 4,5 тыс. вычислительных узлов и более 35 тыс. процессорных ядер. Число ядер не кратно числу узлов, поскольку система гетерогенная. Она строится из трех типов лезвий. 90% производительности обеспечивается лезвийной платформой T-Blade2 на базе процессоров Intel Xeon,  используется также система T-Blade 1.1 с увеличенным объемом оперативной памяти и локальными дисками, а в качестве ускорителя применена платформа на базе многоядерного процессора PowerXCell 8i. Все три типа вычислительных узлов являются разработками "Т-Платформ". Системная сеть, объединяющая все узлы суперкомпьютера "Ломоносов", основана на межсоединении QDR Infiniband с пропускной способностью до 40 Гбит/с. Управление осуществляет программный пакет Clustrx, разработанный компанией T-Massive Computing в составе холдинга "Т-Платформы".

Предмет гордости "Т-Платформ" составляет то, что "Ломоносов" отличается наибольшей компактностью по сравнению с аналогами: всю вычислительную систему удалось разместить на площади 252 квадратных метра, а каждая стойка выделяет 65 кВт тепла. Компактность достигается использованием в лезвии T-Blade2 двенадцатислойной печатной платы с восемью четырехъядерными процессорами. (Показательно, правда, что в данном случае стремление свести к минимуму площадь машинного зала соседствует с гордостью владельцев суперкомпьютера за те тысячи квадратных метров, на которых расположено оборудование, обеспечивающее энергопотребление и кондиционирование.)

На общем фоне выступлений во славу отечественного кластеростроения два доклада оказались исключением. Первый сделал директор НИИ многопроцессорных вычислительных систем Южного федерального университета Игорь Каляев, представивший вычислительные системы с программируемой архитектурой. На определенном круге задач такие системы показывают реальную производительность в диапазоне от 50 до 90% пиковой, в то время как кластерные суперкомпьютеры в среднем имеют КПД не выше 10-15%. С попыткой высказать альтернативное мнение выступил генеральный директор Центра научных телекоммуникаций и информационных технологий Алексей Жижченко, который отметил, что существующая практика создания изолированных, разбросанных по разным учреждениям суперкластеров приводит к нерациональной трате ресурсов; по его мнению, их необходимо объединять в гриды и совершенствовать технологии совместного использования. Эта справедливая, хотя и не новая мысль (Интернет начался именно с желания использовать совместно распределенные ресурсы) у нас еще общепризнанной не стала.

Поделитесь материалом с коллегами и друзьями