cluster ['klaste]- кисть, пучок, гроздь, куст...
В.К Мюллер, Англо-русский словарь.
Издание 21-е, исправленное, Москва,
"Русский Язык", 1987 г.

Волна разукрупнения (downsizing), прокатившаяся по всему миру, и особенно по бывшей Стране Советов паровым катком, сминающим мэйнфреймы IBM и Единой Серии, а заодно и миникомпьютеры DEC со товарищи, покатилась назад. Сначала разукрупненные компьютеры связали сетями, просто так, чтобы файлы передавать. Некоторое время спустя появилась задача связать между собой несколько компьютеров чтобы объединить в единый вычислительный механизм разрозненные мощности. Сделав еще один виток, компьютерная индустрия вернулась к централизованному управлению распределенными, но объединенными ресурсами.

Вместе - лучше

Идея объединить множество разрозненных компьютеров в единый вычислительный организм не нова. С давних времен повелось - если одна лошадка повозку не тащит, запряги двух, а еще лучше трех. Если в пути одна захромает, остальные вынесут. А если речь о королевском эскорте идет, то может и восьми не хватить. Так и с компьютерами. Но нужно не только объединить (для чего ума большого, вообще говоря, и не надо - вон сколько сетей всяких понапридумано), но и сбалансировано загрузить всех рабочих лошадок. Так и получился кластер - система из нескольких компьютеров, совместно работающих над одной общей прикладной задачей. Как ни непривычно может это показаться отечественному специалисту новой генерации, речь о персональных компьютерах здесь не идет - не доросли пока, и вряд ли ПК, в том виде, "как они есть", до этого дорастут (если какая-либо "новая технология" не подоспеет). Кластеры строятся на тех системах, которые изначально ориентированы на многозадачное использование. Сегодня они, в основном, опираются на среду ОС UNIX - наиболее популярного представителя систем такого рода. Впрочем, и из классических ПК (речь не идет о "суперсерверах" на платформе Intel), если на них установить ОС UNIX или Windows NT Advanced Server, можно было бы соорудить кластер. Пока, правда, такой кластер никто сооружать не решался.

Изначально перед кластерами ставились две задачи: мощные вычисления и поддержка распределенных баз данных, особенно таких, для которых требуется повышенная надежность. Что касается быстрых вычислений, там дело темное - то ли кластер нужен, а может, и векторный или массово-параллельный супервычислитель сгодится, а вот параллельная база данных с высоким уровнем готовности - в этом случае все по-другому. Привлекательность кластера определяется прежде всего возможностью построить уникальную архитектуру, обладающую достаточной производительностью, устойчивостью к отказам аппаратуры и программного обеспечения и при этом легко наращиваемую и модернизируемую, но универсальными средствами, из стандартных компонентов и за умеренную цену (несравненно меньшую, чем цена уникального отказоустойчивого компьютера или системы с массовым параллелизмом).

Реальные очертания движение за проведение кластера в жизнь приобрело лишь после создания Oracle Parallel Server - первого коммерческого изделия на рынке профессиональных многопользовательских СУБД, ориентированного одновременно на распределенную многопроцессорную архитектуру и массовые (настолько, насколько мы готовы назвать массовыми продукты класса Oracle) применения. Со дня на день ожидается появление решений и других крупнейших поставщиков СУБД, но пока на рынке их нет. Поэтому мир UNIX-кластеров и концентрируется, в основном, вокруг параллельного сервера Oracle Parallel Server.

Пионером создания кластерных архитектур, вообще, и кластеров баз данных, в частности, выступила корпорация Digital Equipment, в начале восьмидесятых предложившая коммерческую реализацию кластеров миникомпьютеров под управлением операционной системы DEC VMS, а в 1991 году начавшая поставки своих кластерных VMS-систем, предназначенных для работы с Oracle Parallel Server (тогда еще Oracle 6.2). Несмотря на то что кластерные решения сегодня предлагают около десятка фирм, VMS-кластеры удерживают лидерство по числу установок (более 20 тысяч) и до сих пор являются наиболее функционально полной реализацей парадигмы кластерных вычислений.

Использование ОС UNIX в качестве платформы для кластеров баз данных началось совсем недавно, в 1993 году. До этого времени попытки реализации подобных систем, осуществленные такими компаниями, как IBM, Sequent, Pyramid и другими, коммерческого успеха не имели. Два года назад во всем мире едва ли функционировало полсотни UNIX-кластеров баз данных - признать это массовым освоением рынка, конечно, нельзя. Однако сегодня ситуация меняется самым драматичным образом. Многие аналитики предвидят взрыв интереса к UNIX-кластерам, который якобы произойдет уже в этом году. Предполагается также, что функциональность UNIX-кластеров в самом ближайшем будущем догонит и перегонит VMS-кластеры, что не может не сказаться на их продвижении на рынок. Как и на всем компьютерном рынке в целом, ни один из поставщиков решений на основе UNIX-кластеров не может предъявить решающего преимущества своих кластеров над всеми остальными. Даже если в какой-либо момент кто-то и вырывается вперед, то ненадолго. Производительность кластерной ситемы, ориентированной на Oracle Parallel Server, часто определяется не глубинно-концептуальными причинами, а организацией накопителей и эффективностью средств связи с ними. Понятно, что простая замена интерфейса накопителей может радикально изменить ситуацию.

Oracle Parallel Server (OPS)

Parallel Server Option является специальным расширением СУБД Oracle, ориентированным на поддержку слабосвязанных компьютерных систем. (Отметим, что есть и специальные реализации для систем с массовым параллелизмом и SMP.) Логическая структура паралельного сервера выбрана таким образом, чтобы на каждом процессоре (независимо, отождествляется этот процессор с самостоятельным компьютером или является компонентом компьютера многопроцессорного) выполнялся свой экземпляр Oracle.

Основным требованием, предъявляемым к системе такого рода, является использование разделяемых накопителей. Требования разделяемой памяти не выдвигаются, что и делает возможным использование слабосвязанных и кластерных архитектур. Реализация параллельного сервера базируется на концепции распределенного кэша, когда каждый процессор и, соответственно, каждый экземпляр работает со своей локальной памятью (кэшем в терминах Oracle), но при этом взаимодействует с другими для обмена данными. Ведущую роль в управлении кластером играет распределенный менеджер блокировок (Distributed Lock Manager - DLM).

Для того чтобы эффективность наращивания кластера не падала с увеличением количества узлов, необходимо такое средство внутрикластерного взаимодействия, которое обеспечивало бы адекватную скорость обмена данными между узлами кластера. Простейшее решение такой задачи - просто сеть Ethernet, TokenRing или FDDI. Однако при построении сети таким образом неминуемо (и при этом очень быстро) наступает момент, когда производительности среды становится недостаточно. Наиболее эффективны при построении кластеров коммуникационные технологии "канального" типа (когда устанавливается жесткий канал между двумя узлами), но тут целую бочку дегтя обрушивает перспектива квадратичного роста числа каналов при увеличении числа узлов. Поэтому самыми привлекательными (при условии достаточного финансирования) выглядят системы с коммутацией каналов высокой производительности, Fibre Channel, например. Несмотря на то, что в консорциуме по разработке стандарта Fibre Channel принимали участие HP, Sun и IBM, пока решения на основе этой технологии предлагает только Sun.

Кроме значительной масштабируемости, OPS обеспечивает сервис, получивший название "высокая готовность" (предлагаемый словарями научно-технических терминов перевод английского high avaliability), по существу означающий возможность обнаружения, локализации и упразднения единичных сбоев и отказов системы. При отказе одной из вычислительных систем, входящих в кластер (одного из прессорных модулей), очередной SQL-запрос переадресуется другой. Для повышения надежности кластера и функционирующей на нем базы данных рекомендуется использование разделяемых дисковых массивов RAID, которые могут дублироваться в рамках кластера.

Для обеспечения равномерной загрузки используются мониторы транзакций. В настоящий момент доступно несколько различных продуктов, однако, без сомнения, наиболее популярен развиваемый UNIX System Laboratories монитор Tuxedo.

Подход Digital Equipment

Как уже упоминалось, VMS-кластеры стали первым и уже классическим примером построения коммерчески целесообразных кластеров. Хотя пик славы VMS-кластера, кажется, уже пройден, тем не менее, решением он был уникальным, поэтому достоин особо пристального внимания.

В концептуальном плане VAX-кластер - классический пример слабосвязанных систем, надежный на уровне единичных отказов оборудования и программного обеспечения. Кластеры строятся тремя способами (их можно сочетать произвольным образом): на базе локальных сетей, на интерфейсе DSSI, посредством CI-интерфейса.

Сетевой VAX-кластер

Кластерные системы на базе локальных сетей Ethernet или FDDI NI-кластер (Network Interconnect) реализуются традиционными способами и в определенной степени ограничивают преимущества подобных систем, особенно когда речь идет о распределенной обработке транзакций. К достоинствам этого подхода следует отнести его максимальную (конечно, только в сравнении с другими) простоту и дешевизну.

NI-кластер предоставляет обычный сетевой сервис и единичный путь (через сеть) доступа к разделяемым ресурсам. Впрочем, сетевой кластер из-за своей малой эффективности не прижился и применялся, в основном, в сочетании с другими типами кластерных архитектур.

DSSI-кластер

VAX-кластер может содержать до четырех компьютеров с общей шиной DSSI и разделяемыми накопителями на ней. DSSI - Digital System Storage Interconnect - интерфейс, специально разработанный компанией и предназначенный не только для доступа к накопителям, но и для взаимодействия систем между собой. Очень похож на предлагаемый сегодня мультихостовый SCSI-2, но обладает большей производительностью и возможностью организации взаимодействия компьютеров.

DSSI-кластер реализует все возможности, декларируемые для кластерных систем. Поддерживаются средства повышения надежности системы, разделение ресурсов, распределенная файловая система и прозрачность. С точки зрения управления и обеспечения безопасности, DSSI-кластер представляется единым доменом. Такие особенности DSSI-интерфейса, как:

- высокий уровень защиты данных, достигаемый благодаря альтернативным системам доступа к накопителям по шине DSSI, аппаратной коррекции ошибок контроллерами накопителей и специальным программным средствам;

- возможность построения системы с несколькими шинами DSSI, что повышает производительность системы и ее надежность;

- априорное наличие на всех платформах семейства VAX - от MicroVAX`ов до суперкомпьютеров VAX делают DSSI-кластер наиболее естественным способом организации кластерных VMS-систем.

К сожалению, для функционирования DSSI-кластера необходимо сетевое взаимодействие между системами, объединенными шиной DSSI. Как правило, NI- и DSSI-кластер используются в одной системе, дополняя друг друга.

DSSI-кластер ориентирован на крупные корпоративные применения или использование в качестве сервера, когда требуется высокая сохранность и эффективный доступ к данным.

Кластеры на базе CI-интерфейса

В основу Computer Interconnect положено специализированное устройство - CI-интегратор. Топология CI-кластера - звезда, допускающая подключение до 32-х устройств, шестнадцатью из которых могут быть компьютеры среднего и большого класса VAX, а остальными - системы HSC (Hierarhical Storage Controller), представляющие собой специализированные компьютеры для обслуживания дисков. Интерфейс CI - это двойная последовательная шина со скоростью обмена до 70 Мбит/сек, подключенная к системе ввода/вывода компьютера посредством интеллектуального контроллера, способного поддерживать работу как с двойной, так и с одинарной шиной, в зависимости от требований к надежности доступа для конкретного компьютера. Все линии связи CI-интерфейса одним концом соединены с CI-интегратором - специальным устройством, отслеживающим соединения с узлами и конфигурации кластера. В качестве узлов CI-кластера могут выступать элементы DSSI-кластера. Как правило, все компьютеры CI-кластера объединены сетью или интегрированы в NI-кластер.

Alpha-кластеры

Реализация кластера на нескольких уровнях в совокупности с программным обеспечением позволяет реализовать системы высокой надежности, удовлетворяющие самым изысканным требованиям.

Увы, теснимая "Альфой", постепенно уходит архитектура VAX, а вместе с ней остается в прошлом и слава VMS-кластера. В дверь стучатся новые герои. Вместо DSSI-интерфейса все чаще и чаще используется признанный повсеместно в качестве индустриального стандарта SCSI, а коммутатору CI предлагается все больше и больше альтернатив, начиная от стамегабитных коммутаторов Ethernet и заканчивая АТМ-переключателями.

После ряда "холостых" экспериментов с собственными версиями UNIX в 1993 году появилась, наконец, а через год окрепла устойчивая коммерческая версия ОС DEC OSF/1, основанная на технологиях Open Software Foundation. Концептуально обновленная и проработанная операционная система в сочетании с повзрослевшей аппаратной платформой Alpha - это уже повод для того, чтобы всерьез подумать о кластерных системах на этой основе.

В том же, 1993, году появился набор решений под общим названием AlphaFarm - кластерное решение, но уже не на базе традиционных DEC VMS-кластеров, а на новой программно-аппаратной платформе. В качестве узлов в кластере использовались рабочие Alpha-станции. В основу такого кластера было положено коммутационное устройство, получившее название GigaSwith - вероятно, за свою интегральную производительность в 3.6 Гбит/сек. Концептуально кластер на основе GigaSwitch поразительно похож на кластер на CI-интерфейсе.

GigaSwith - 36-портовое протокольно независимое устройство коммутации пакетов, которое может поддерживать как Ethernet и FDDI, так и АТМ. Нормальная скорость потока 100 Мбит/сек, однако существует возможность объединения нескольких физических портов в один логический, ведущий к суммированию полосы пропускания. При этом поддерживается одновременно до 22-х каналов взаимодействия типа "точка-точка". Поддержка протоколов реализована посредством специальных карт, которые вставляются в устройство. Справедливости ради, необходимо отметить возможность построения кластера и на основе более доступных компонентов - сетей FDDI и Ethernet. Новый подход фирмы чрезвычайно похож на подход к построению VMS-кластера, что, впрочем, совсем не удивительно. Видимо, все помыслы разработчиков направлены на достижение адекватной или более высокой функциональности по сравнению с VMS-кластерами.

В дополнение к моноплатформным кластерам Digital "грозится" в ближайшее время выпустить набор продуктов, поддерживающих гетерогенные кластеры. Для балансировки загрузки кластера предлагается использовать продукт третьей фирмы - Load Sharing Facility (Platform Computing Corporation), достуный, впрочем, и на платформах с другими ОС - AIX, SunOS, Solaris 2, HP-UX, Iris, Ultrix.

Кластеры IBM

Изделие, несущее в своем названии слово "кластер", впервые появилось в перечне продуктов компании IBM в 1991 году. Продукт, названный High Avaliability Cluster Multi-Processng (НАСМР), кластером в современном понимании не был. Он представлял собой лишь два узла RS/6000, один из которых находился в "горячем" резерве. Несколько позже узлы НАСМР "научились" функционировать независимо, заменяя друг друга в случае сбоя или отказа. Тогда же появились упоминания о возможности наращивания кластера до восьми узлов.

Впоследствии кластер НАСМР был значительно усовершенствован, пополнившись возможностями переключения ресурсов, параллельным менеджером ресурсов, распределенным менеджером блокировок и параллельным менеджером логических томов. Параллельный менеджер ресурсов обеспечивал возможности баллансировки загрузки на уровне всего кластера. НАСМР стал рассматриваться как альтернатива SMP для повышения производительности системы.

Сегодня кластер IBM поддерживает как однопроцессорные, так и SMP-узлы, построенные по уникальной технологии Data Crossbar Switch. При таком построении системы общая шина, характерная для большинства SMP-архитектур, заменяется на своего рода систему переключаемых коммутационных каналов. Такой подход обеспечивает существенно большую линейность при увеличении числа процессоров, чем общая шина. По существу, число процессоров при этом ограничено лишь характеристиками поддержки SMP в ОС AIX.

Компания добилась значительной гибкости в конфигурировании кластеров. Возможно построение систем, как просто масштабируемых, так и высокой готовности (с избыточностью коммуникационной аппаратуры и автоматической нейтрализацией сбоев), работающих и с OPS, и без него. Кроме кластерных решений на основе RS/6000 фирмой IBM предлагается еще одно решение, если и не вполне кластерное, то вполне ориентированное на Oracle Parallel Server. Решение это - острие стратегической линии IBM "from palmtop to terraFLOPS" - Scalable POWERparallel System SP2, в основу которой положено новое поколение архитектуры POWER - POWER2.SP2 в номенклатуре изделий IBM заполняет ту же нишу, что продукты таких технологически-производственных альянсов, как Cray-Sun и ConvexHP. "Голубому гиганту", похоже, не требуются никакие альянсы.

"Стандартная" конфигурация может содержать от 2 до 128 узлов (в терминологии массово-параллельных архитектур), а на заказ можно получить и 512. Утверждается, что на SP2 с успехом выполняются приложения, предназначенные для RS/6000 под управлением ОС AIX. Как и многопроцессорные RS/6000, SP2 базируется не на шинной архитектуре, а на коммутаторе. При этом, правда, не используется разделяемая память и накопители. Архитектурно SP2 - типичная слабосвязанная архитектура, где у каждого процессорного модуля собственная память до 2 ГБайт и свои дисковые накопители от 1 до 8 Гбайт - ну чем не кластер. Для исполнения OPS требуется наличие разделяемых накопителей, поэтому для SP2 создана специальная утилита, обеспечивающая работу с распределенными дисками как с единым разделяемым диском - Virtual Shared Disk Facility. Таким образом, с точки зрения OPS, все диски системы представляются единым виртуальным диском.

Что предлагает Sequent

Компания Sequent заслуженно причисляется к пионерам кластерных UNIX-систем. Для повышения производительности или готовности системы можно было, используя специальную утилиту ptx/Clusters, объединить системы Symmetry в слабосвязанные кластеры. Большую роль в развитии кластеров Sequent сыграл способ организации накопителей - еще одна иллюстрация того, что в кластерных архитектурах, предназначенных для работы с базами данных, накопители играют ведущую роль. Внедрив одной из первых Fast/Wide SCSI-2, компания Sequent стала первым UNIX-поставщиком, преодолевшим барьер в 1000 tps.

С тех пор кластер Sequent научился работать с OPS, пополнился средствами восстановления для систем высокой готовности, стал обеспечивать поддержку до четырех узлов и поддержку систем разного поколения в рамках одного кластера.

Программное обеспечение Sequent ptx/Clusters включает отказоустойчивый распределенный менеджер блокировок уровня ядра, распределенный менеджер томов (поддерживающий разделяемый одновременный доступ к диску). Чтобы обеспечить высокую готовность и нейтрализацию сбоев на прикладном уровне, применяется продукт НА Symmetry. Для обеспечения равномерной загрузки кластера используются мониторы транзакций третьих поставщиков. С точки зрения сети, кластер представляется единым узлом.

Дисковая подсистема Sequent в значительной мере уникальна и загадочна. Из доступных источников известно, лишь то, что к ней организован мультихостовый доступ через интефейс SCSI-2. Кроме того, доступны разделяемые ленточные накопители, обеспечивающие резервное копирование данных.

Кластеры АТ&Т

Несмотря на то что UNIX родился в недрах АТ&T, у нас в стране "американская телефонная..." никогда не ассоциировалась с поставками UNIX-компьютеров. Тем не менее, именно она предлагает сегодня один из самых конкурентно способных продуктов на рынке кластеров.

История участия АТ&Т в движении за продвижение кластеров началась с покупки компании NCR с готовыми SMP- и MPP-решениями System 3000. При этом в рамках всего семейства сохранялась двоичная совместимость. Впоследствии компания NCR, сменив лицо, преобразовалась в подразделение Global Information Systems - GIS.

К концу 1993 года GIS выдвинула на рынок продукт под названием LifeKeeper Resilient Fault Systems, обеспечивающий автоматическое обнаружение сбоев и восстановление системы. На базе Lifekeeper была создана кластерная платформа для Oracle Parallel Server.

Платформа базировалась на новых генерациях System 3000, поддерживалось до четырех узлов. Полностью избыточное межсоединение узлов через Ethernet, Token Ring, FDDI, многохостовые SCSI-диски позволили создать платформу, устойчивую к одиночным сбоям, а LifeKeeper обеспечивал автоматическое восстановление системы.

Кластеры АТ&T строятся на базе семейства многопроцессорных SMP-моделей System 3000. Все семейство базируется на процессорах Intel и ориентировано на высококритичные применения. Поддерживаются такие приятные особенности, как избыточные блоки питания, нейтрализация сбоя адаптера локальной сети и двухпортовые диски. Привлекательна декларированная двоичная совместимость внутри семейства. Кроме систем SMP, в рамках семейства System 3000 имеются и системы с массовым параллелизмом - 3600 и 3700, однако их использование в качестве платформы для Oracle Parallel Server пока не является предметом коммерческой активности компании. Имеются данные о ряде соглашений с поставщиками баз данных по созданию параллельных платформ, вероятно, в течение этого года будут сделаны соответствующие заявления.

Кластерные решения HP

Среди лидирующих поставщиков UNIX-систем HP объявила о поддержке Oracle Parallel Server, пожалуй, последней - в конце января 1995 года. До этого официальных сообщений о коммерческой поддержке на продуктах HP OPS не было (поправимся - о планах рассказывали и раньше). Кластерная программа HP началась несколькими годами раньше, но первые кластерные системы на основе решений HP были ориентированы, скорее, на быстрые вычисления, нежели на распределенные базы данных. Отсюда и аппаратная ориентация такого кластера - рабочие станции APOLLO. Такие кластеры хотя и предлагали масштабируемость производительности, но средства поддержки высокой готовности были развиты не вполне и поставлялись третьими лицами.

Примерно в то же время на рынок предлагались так называемые системы повышенной надежности для бизнес-применений. Системы строились на базе систем серии 800 семейства HP 9000. Такие системы обеспечивали переназначение задания с отказавшей системы на резервную. Эти решения не подразумевали масштабируемости производительности, но обеспечивали высокую готовность. В рамках этого подхода предлагалось решение Swithover/UX, на которое возлагалась обязанность нейтрализации сбоев. Для подключения накопителей использовались либо стандартные сетевые средства, либо FL-интерфейс (Fiber Link), оригинальная разработка компании, чем-то похожая на DSSI, но на оптоволокне (большого распространения, впрочем, не получившая и сегодня быстро вытесняемая более современными и стандартными технологиями, например, Fibre Channel). Кроме этого, среди кластерных решений HP предлагается уникальная возможность создания кластеров в рамках глобальной сети. О поставке аналога утилиты SharedPlex, ответственной за глобальные кластеры, насколько нам известно, не объявил более ни один из поставщиков открытых систем.

В конце января компанией был представлен набор решений высокой готовности для критичных приложений. Вместо ранее поставляемого Swithover предлагается новая утилита MC/ServiceGuard, на которую возложена забота о "здоровье" системы в целом и ее-компонентов - процессоров, памяти, сетей, интерфейсов и других. Кроме того, эта система предлагает прозрачное для пользователя интегрирование любых приложений в кластерную среду без каких-либо изменений.

Для поддержки работы с Oracle Parallel Server предназначена другая утилита - MC/LockManager - менеджер блокировок, обеспечивающий связь между экземплярами Oracle, функционирующими в кластере.

По утверждению представителей HP, MC/LockManager и MC/ServiceGuard будут поставляться только совместно с новой версией операционной системы HP/UX 10.0, дополненной новыми (по сравнению с предыдущими версиями) механизмами, направленными на повышение защищенности и надежности системы.

SPARC-кластеры

Компания Sun вступила на рынок кластерных систем с объявления SPARCCluster PDB Server. Кластер ориентирован на применение в качестве узлов SMP-систем SPARCServer 1000 и SPARCCenter 2000. Масштабирование производительности достигается путем наращивания узла. Пока Sun - единственный поставщик, ориентирующийся на использование технологии Fibre Channel, обеспечивающей удаление накопителей и узлов друг от друга на расстояние до 2 километров. В настоящее время производительность каналов Fibre Channel не слишком велика, 25 Мбит/сек, и значительно уступает 100-мегабитной производительности Fast Ethernet, но поставщиком утверждается, что повышение производительности таких систем в дальнейшем обойдется заказчику существенно дешевле новой установки или замены Ethernet на Fibre Channel "нормальной" производительности - от 100 до 1000 Мбит/сек. Для управления кластером предлагается набор процедур администрирования кластера.

Cluster Console предлагает единое окно для отображения текущего состояния всех элементов, входящих в кластер, и позволяет осуществлять всестороннее администрирование кластера. SPARC Storage Manager представляют возможным производить оперативные действия по управлению системами накопителей, повышая готовность системы, при этом абсолютно прозрачно для пользователя, оперирующего в системе.

Как и Sequent, Sun уделяет большое внимание системам накопителей, упирая на уникальный интерфейс Fibre Channel и относительно низкую цену.

День грядущий

Процесс укрупнения идет повсеместно, поэтому, вероятно, кластеры будут играть одну из ключевых ролей на рынке коммерческих систем. В настоящее время кластерам просто не предлагается альтернативы. Главное их достоинство - достижение реальной высокой готовности и масштабируемости информационных систем, позволяющих постепенно, вместе с ростом потребностей, увеличивать вычислительную мощь платформы, защищая, таким образом, инвестиции пользователей. К тому же, в качестве узлов используются стандартные компьютеры соответствующих производителей.

В то же время, необходимы серьезные шаги в развитии средств межсоединения узлов, подсистем хранения, специализированного программного обеспечения - именно они оказываются узким местом при попытке увеличения мощности и числа узлов, повышения уровня готовности. В этих областях значительным, измеряющимся десятилетиями технологическим заделом обладают традиционные лидеры компьютерного рынка. Если они будут последовательны в своего рода "трансферте технологий" на платформу открытых систем (чем, как можно понять из вышесказанного, всерьез занялись IBM и Digital Equipment), мы сможем стать свидетелями многих новых и мощных решений.

На наш взгляд, сегодня невозможно всерьез рассматривать в качестве конкурентов кластеров в массовом масштабе суперкомпьютеры и системы с массовым параллелизмом из-за их высокой стоимости и малой пригодности для обработки транзакций (что было продемонстрировано, например, отсутствием коммерческого успеха OPS-сред на платформах такого рода). Идея кластеризации же становится все более привлекательной по мере развития систем межкомпьютерного взаимодействия как в локальных применениях, на уровне транснациональных взаимодействий, так и во всемирном масштабе.

Технология АТМ обещала в ближайшее время обеспечить необходимые параметры глобального взаимодействия, достаточные для создания систем, давно вынашиваемых больным воображением фантастов, - всемирных объединенных вычислительных ресурсов, единого информационного поля планеты.

Михаил Борисов (mike@osp.ru) -- основатель компании "Открытые системы", (Москва).