В 60–70 годах в СССР активно строились гидроэлектростанции: считалось, что «дармовая» энергия поможет выполнять пятилетние планы по разным программам. Однако потом оказалось, что минусов от сооружения плотин гораздо больше, чем преимуществ от «бесплатного» падения воды. Уменьшение разнообразия растительных и животных видов, вплоть до полного исчезновения некоторых из них, изъятие из оборота сельскохозяйственных угодий и т.п. часто сводят на нет «дешевизну» получаемой электроэнергии. Сегодня эту аналогию вполне можно применить и к современной отечественной отрасли высокопроизводительных вычислений, когда все ее субъекты бросились строить суперкомпьютеры из дешевых и доступных компонентов, предполагая, что кластерам будут по силам любые задачи. Примечательно, что в Японии и США, не оспаривая коммерческую выгоду кластерных систем, без лишнего шума финансируют разработки совсем иных суперкомпьютерных архитектур.

В феврале 2001 года американская компания Cray отозвала жалобу на японскую компанию NEC по поводу продажи ею на американском рынке своих векторных суперкомпьютеров, что создало предпосылки для образования еще одной зоны риска. Столь рядовое, казалось бы, в бизнесе событие привело в шок американских чиновников, отвечающих за высокотехнологичную промышленность,— векторные суперкомпьютеры, имеющие ключевое значение для обеспечения национальной безопасности, продаются по демпинговым ценам в стране, формально победившей во Второй мировой. Соглашение между Cray и NEC фактически означало, что американская ИТ-индустрия попала в зону риска— она более не способна самостоятельно обеспечить национальную безопасность своей страны. В прессе это событие даже назвали цифровым Перл-Харбором. Действительно, векторные системы, эффективно работающие с памятью большого объема, необходимы, например, для создания боевых и гражданских информационно-управляющих систем, получения стратегической научной и разведывательной информации, криптоанализа, а также для предотвращения глобальных террористических операций. Для всех этих стратегических задач характерна работа с предсказуемо нерегулярно расположенными в памяти элементами векторов, однако даже векторные процессоры не всегда успешно работают с памятью большого объема, имеющей плохую пространственно-временную локализацию.

Для выхода из сложившейся ситуации в США была принята программа интенсивных исследований и разработок в области стратегических компьютерных систем, к участию в которой были допущены ведущие представители североамериканского суперкомпьютерного Олимпа. Эта программа призвана создать инфраструктуру разработки высокопроизводительных компьютерных систем нового поколения, позволяющих решать сегодняшние и будущие задачи национальной безопасности и экономики на период с 2007-го по 2010 год. Планируется создать архитектуры систем, производительность которых будет удваиваться каждые полтора года. Программа предусматривает проведение фундаментальных исследований в области программирования, обеспечения совместимости, надежности, отказоустойчивости и достижения гарантированной производительности суперкомпьютеров.

Отдельное внимание в программе уделяется работам по измерению быстродействия. Как известно, производительность зависит от множества факторов— собственно времени выполнения задачи, задержек при обращении к оперативной памяти, пропускной способности межпроцессорной сети, степени синхронизации процессов и т.п. Однако наиболее популярные сегодня методики измерения быстродействия не дают адекватного представления о реальной— а не абстрактной— пиковой производительности суперкомпьютера. Для оценки систем, интенсивно работающих с массивами данных потребовались новые метрики измерения скорости обновления случайных участков памяти. Действительно, если сборочному конвейеру вовремя не поставить нужных комплектующих, то вряд ли будет иметь смысл высокая производительность каждого его работника— в этом случае все равно не удастся приблизиться к пиковой производительности системы.

А что же кластеростроение, которое многие считают мэйнстримом современной ИТ-индустрии? По утверждению авторов этого выпуска журнала, посвященного анализу современного суперкомпьютинга, кластеры непригодны для решения целого ряда задач, требующих эффективной работы с глобально адресуемой памятью большого объема. Коэффициент полезного использования кластеров на таких задачах не превышает 5–10%, а в ряде случаев равен 0,1–1%. С системной точки зрения, считают наши эксперты, существует предел развития кластерных архитектур— невозможно, например, заставить летать авиалайнер, установив на нем множество автомобильных двигателей.

Движение в русле мэйнстрима не гарантирует от попадания в зоны риска— когда асфальт заканчивается, для дальнейшего движения потребуются автомобили совсем другой архитектуры. Как и во времена мэйнфреймов, сегодня эффективные решения лежат не в сфере сборки простых систем, а в области высокой инженерии.


Колонка главного редактора www.osp.ru/os/2007/08/rub/1072568