Усовершенствование серверного аппаратного обеспечения способно оказать значительное влияние на информационные центры.

«Делайте больше, тратьте меньше». Эта общая директива в особенности применима к руководителям информационных центров, поскольку им всегда недостает средств для покупки новых серверов и расширения штата сотрудников, и они вынуждены выжимать из имеющегося оборудования все возможности до последней капли.

«Большинство проблем с серверами касается управляемости, развертывания, подготовки к работе и общих затрат на все перечисленное, а также их первоначальной стоимости», — говорит Ричард Фишера, вице-президент и один из главных исследователей Giga Information Group.

В крупной корпорации могут работать от 5 до 15 тыс. серверов. Потребность же во все большем числе устройств для поддержки бесчисленных приложений и хранения данных оборачивается тривиальной нехваткой места. По иронии судьбы, немалая часть серверных ресурсов не востребована, что приводит к появлению неиспользуемого дискового пространства и не полностью загруженных процессоров. По словам Фишера, в больших компаниях средняя загрузка устройств хранения данных составляет около 50%, отчасти из-за дублирования информации. А загрузка процессоров — всего пару десятков процентов.

В чем причина? Легче купить дополнительные серверы, чем попытаться распределить имеющиеся ресурсы в соответствии с непредсказуемыми требованиями бизнеса. К тому же попытка оптимизировать конфигурации серверов, а также кабелей, устройств хранения данных и сетевых ресурсов для каждого нового приложения или бизнес-логики может обернуться непредвиденными последствиями и занимает слишком много времени. В итоге вместо максимального использования возможностей уже имеющегося оборудования покупается новое. Балансировка нагрузки в кластерах помогает бороться с данной проблемой, однако не решает ее в полном объеме. Поэтому администраторам приходится «недонастраивать» серверы и мириться с этим. Вместе с тем, чем меньше устройств приходится администрировать, тем лучше, поскольку сокращается количество сверхурочных работ и повышается коэффициент окупаемости инвестиций (ROI).

По данным Giga Information Group, архитекторы и директора по технологиям хотели бы назначать каждому приложению свою часть ресурсов сервера и устройств хранения данных, а также легко перемещать приложения вкупе с необходимым ПО с сервера на сервер. Более того, им требуется гибко организовывать сетевые среды и обеспечивать их защиту; легко добавлять, удалять и переносить ресурсы, а также удаленно управлять и перенастраивать все параметры среды.

Очевидно, что спрос направлен на лучшую управляемость и оптимальное использование ресурсов. Но сначала необходимо убедиться, что физическая инфраструктура может справиться с такими задачами. Рассматриваемые далее аппаратные разработки способны восполнить существующие пробелы.

«СЕРВЕРНЫЕ ЛЕЗВИЯ»

Наиболее значительной разработкой в области серверов стали ультраплоские серверы, или «серверные лезвия». Компании RLX Technologies и Egenera представили их в 2001 г., а такие лидеры, как Hewlett-Packard/Compaq, Dell и Fujitsu-Siemens, присоединились к ним чуть позже. Кроме того, в конце 2002 г. со своими продуктами обещают познакомить IBM и Sun Microsystems.

«Штативы ультраплоских серверов представляют собой системы, куда можно устанавливать множество функциональных серверов с минимальной настройкой или вообще без нее, — пишет Фишера в недавнем отчете Giga. — Чтобы сервер мог называться «лезвием», такие модули должны по крайней мере автоматически подключаться к источнику питания при установке в корпус. Физически просто реализуемая вещь — возможность вставить дополнительный сервер с немедленным опознанием локальной управляющей консолью сразу после включения питания — является минимальным базовым требованием».

«Лезвия» обладают тремя основными преимуществами. Во-первых, общий корпус или стоечный модуль с распределением питания упрощает установку и расширяет выбор форм-фактора и плотности размещения. Фишера сообщает, что плотность размещения модулей в подобных серверах может быть в три-пять раз выше по сравнению со стандартными серверами.

«Ультраплоские серверы предлагают новые уровни плотности при размещении в 19-дюймовых стойках, — указывает в своем отчете Филипп Доусон, аналитик META Group. — Изначально они будут применяться при услугах Web и в пограничных службах, где плотность играет важнейшую роль. Поставщики прикладных услуг (ASP), управляемых услуг (MSP) и хостинга значительно выиграют, в три раза «сжав» тысячи стоечных серверов 0.50U с помощью технологии «лезвий» и повысив плотность размещения до 20 серверов в форм-факторе 3U».

Во-вторых, применение «серверных лезвий» позволяет консолидировать соединительные кабели и уменьшать эффект «крысиного гнезда» (подробнее об этом ниже). В-третьих, каждым «серверным лезвием» в стойке можно управлять отдельно. Возможности управления отличаются в зависимости от продукта, но они обязательно включают удаленное управление питанием, открытие консоли для любого из «лезвий» и запуск базовых средств мониторинга. Специальное ПО позволяет производить быструю установку на «лезвия». Оно зачастую объединяет возможности развертывания приложений и функции управления. В качестве примера можно привести пакет для быстрого развертывания Compaq ProLiant Essentials Rapid или Turbolinux PowerCockpit.

«К концу 2002 г. или началу 2003 г. пользователи смогут приобрести плотно располагающиеся «серверные лезвия» разных производителей с поддержкой четырехпроцессорной симметричной обработки (SMP, где код ядра может одновременно выполняться более чем одним процессором), причем они будут выполнять большинство задач корпоративного информационного центра, за исключением больших внутренних серверов баз данных», — пишет Фишера. Это может объяснить намерение Hewlett-Packard первоначально применять «серверные лезвия» в таких внешних и инфраструктурных приложениях, как кэширование, DNS и небольшие серверы Web. Для сравнения, «лезвия» следующего поколения будут предоставлять больше ресурсов для электронной почты и обмена сообщениями, ряда деловых приложений, потокового мультимедиа и приложений баз данных.

ЭКСПРЕСС-ШИНА

С точки зрения обмена данными между устройствами крупным прорывом стало добавление к серверам портов USB. По сравнению с традиционным и уже устаревшим стандартом PS/2 для клавиатуры и мыши, единственный порт USB может обслуживать до 128 устройств. Это означает, что к переключателям клавиатур/видео/мышей (Keyboard/Video/Mouse, KVM) будет идти меньше кабелей со стороны серверной стойки.

Адаптеры шины хоста (Host Bus Adapter, HBA), т. е. интерфейс между процессором хоста и контроллером диска, чья задача состоит в избавлении первого от необходимости хранения и извлечения данных, также продолжают развиваться. «Сетевые карты с механизмами разгрузки TCP первого поколения выглядят многообещающе, хотя и кажутся более подходящими для передачи больших объемов данных за ограниченное число сеансов. Им, без сомнения, понадобится дополнительная доводка, прежде чем их можно будет использовать в информационном центре», — подчеркивает Фишера.

Более примечателен переход на шину PCI-X для расширения ввода/вывода и межсоединений рабочих станций и серверов. Старая шина PCI работала на частоте 66 МГц и обеспечивала 64-разрядный тракт, однако господство Gigabit Ethernet и Fibre Channel требует большей пропускной способности. Решение следующего поколения, PCI-X, представляет собой шину на 133 МГц с 64-разрядным трактом данных. Возможно, PCI-X будет доминировать в течение нескольких лет, а затем ее сменит следующий стандарт PCI, например PCI 3.0 или 3GIO. Помимо прочего, PCI-X обратно совместима с PCI 2.3 и более старыми версиями. Платы PCI-X работают в стандартных слотах PCI и наоборот, однако шина в таких случаях функционирует в наименее производительном режиме.

Одна из подкатегорий PCI-X, устройства PCI-X Double Data Rate (DDR), позволяет передавать данные дважды за один цикл, а PCI-X Quad Data Rate (QDR) — четыре раза за цикл. Такая производительность нацелена на графические платы, и, возможно, она заменит технологию AGP4x. Оба стандарта плавно переходят к 3GIO. А пока этот рынок будет развиваться, PCI-X будет выглядеть солидным решением.

ВЛИЯНИЕ INFINIBAND

Имеющая прямое отношение к PCI-X, спецификация Infiniband — новая передовая технология межсоединений, привлекшая к себе большое внимание в области хранения данных, где иногда ее сравнивают с Fibre Channel или интерфейсом internet Small Computer Systems Interface (iSCSI). Однако Infiniband, возможно, не будет конкурировать с другими технологиями, а дополнит их. Хотя готовых продуктов пока нет, спецификация предусматривает передачу данных со скоростями до 2,5 Гбит/с и одновременную доставку запросов ввода/вывода к центральному процессору от множества устройств без задержек. Такая пропускная способность в сочетании с разгрузкой обработки TCP/IP делает Infiniband идеальной технологией для серверных кластеров. А Fibre Channel и iSCSI, вероятно, наиболее подойдут для сетей хранения данных (SAN).

Несмотря на ряд недостатков Infiniband, включая сложность, ограничения по расстоянию и отсутствие готовых продуктов, она может стать новым кабельным интерфейсом информационного центра. Это не значит, что не будут использоваться другие протоколы (Fibre Channel, iSCSI). Infiniband — все же не волшебная палочка и вряд ли станет корпоративной транспортной технологией, тем более что ее первоначальное применение ограничивается вертикальными рынками: например, в сфере финансовых услуг, где требуются масштабные, сильносвязанные кластеры и устройства хранения.

«Первоначально, примерно в течение двух-трех ближайших лет, Infiniband понадобится внутри расширенных серверных кластеров или в качестве связующей инфраструктуры в больших дисковых массивах с межсоединениями по Fibre Channel или IP, — заявляет Фишера. — Она будет служить базовой сетью для будущих поколений бездисковых серверов». Но если iSCSI получит распространение, применение Infiniband, возможно, ограничится только нишей высокопроизводительных межсоединений кластеров и внутренних систем. Время покажет.

ОБЪЕДИНЕНИЕ КАБЕЛЕЙ

Как упоминалось выше, серьезная проблема заключается в объединении кабелей. Одному серверу могут требоваться отдельные кабели питания, Ethernet, KVM, SAN и кабели для сетевого управления, часть которых может дублироваться в целях повышения избыточности. Более того, в серверах зачастую используется множество сетевых плат для связи с различными сегментами сети, чтобы обеспечивать максимальную производительность и безопасность. В некоторых крупных информационных центрах администраторы вынуждены тратить до четверти своего времени на организацию кабелей, что является главной причиной простоев.

Кластеризация серверов всей проблемы не решает. Несмотря на повышение доступности и сокращение сроков восстановления после отказа, такая работа сложна и подвержена ошибкам. «В Giga полагают, что на конфигурацию большинства нетривиальных кластеров уходит от 20 до 60 ч и более, не говоря уже о потенциальных сотнях часов дополнительного времени в год на поддержание их работоспособности, несмотря на все усовершенствования в механизме перераспределения нагрузки между серверами», — пишет Фишера.

Совершенствование «серверных лезвий» и межсоединений наряду с оптимизацией пространства информационных центров смягчает проблему проводки и стимулирует администраторов заниматься кластеризацией серверов. «Увеличение числа кластеров Linux отмечается как в коммерческих, так и технологических средах, — заявляет представитель IBM Кэтрин Кинг. — Кластеризация недорогих систем на базе Linux в единый комплекс имеет множество преимуществ, включая круглосуточную доступность, защиту от сбоев, горизонтальную и вертикальную масштабируемость и большой объем обрабатываемых данных и транзакций. В числе других преимуществ — поддержка смешанной нагрузки, обработка неожиданных пиков нагрузки, централизованное управление системой и восстановление после сбоев».

Такие поставщики, как IBM, пытаются решить существующие проблемы с помощью технологии C2T Cable Chaining Technology или путем объединения соединений ввода/вывода, например, создавая удаленные секции ввода/вывода на новых серверах x360/440. Большинство аналитиков полагают, что кластеризация будет способствовать увеличению производительности и масштабируемости и, возможно, приобретет значение виртуальных серверных хостов.

УПРАВЛЕНИЕ SMP

Все эти аппаратные разработки напрямую связаны с производительностью и использованием серверных ресурсов, но по-настоящему максимизировать их может лишь интеллектуальное программное обеспечение управления. SMP — ключевой пункт в оптимизации неиспользуемых ресурсов. Ведь когда несколько процессоров могут одновременно выполнять код ядра, пользователи быстро и легко настроят сервер под конкретную нагрузку. Кроме того, такая платформа подходит для консолидации путем разбиения сервера на несколько разделов. По сути, серверные ресурсы можно разделить на множество виртуальных серверов для повышения многозадачной производительности высокотехнологичных приложений.

Исторически сложилось так, что серверы SMP всегда были объемными и дорогими. Поставщики, создавая устройства с разделением ресурсов, стремились предоставить те же преимущества, что и «серверные лезвия», однако лишь сейчас такие продукты стали обеспечивать бо/льшую модульность и масштабируемость. «Ситуация изменилась в лучшую сторону с недавним долгожданным выпуском серверов на базе процессоров Intel компаниями IBM, Compaq, Unisys и другими, а также последнего поколения систем на базе RISC UNIX производства IBM, Hewlett-Packard и Sun. Каждый из них поддерживает логическое деление на меньшие отдельные серверы и возможность наращивания образов системы до восьмиканальной и более крупных систем SMP», — пишет Фишера.

Три типа «делимости»: аппаратный, виртуальный и программный обеспечивают бо/льшую гибкость использования серверов вместе с управлением загрузкой. При программном виртуальном разбиении несколько виртуальных образов операционной системы запускается на одной физической машине. Единственный коммерческий продукт, позволяющий использовать подобные конфигурации, предлагает компания VMware. (В отличие от статического разделения ресурсов в случае VMware, технология Virtuozzo компании SWsoft обеспечивает динамическое разделение и обладает нaмного большей масштабируемостью, при этом каждая виртуальная среда эквивалентна обычному серверу UNIX — прим. ред.) Потенциальные пользователи должны убедиться, что виртуальная ОС обладает всей реальной функциональностью и не мешает другим образам. По словам Кинг, обеспечение виртуализации функций в каждом «разделе» предоставит менеджерам лучшую динамическую оптимизацию и поддержку ресурсов, что приведет к распределению ресурсов и приложений, схожему с услугами Web.

ПРЕЖДЕ ЧЕМ ДЕЛАТЬ ПОКУПКИ

Список необходимых аппаратных возможностей должен обязательно включать в себя «горячую» установку серверных модулей, их «горячую» замену и совместное использование соединений ввода/вывода там, где позволяет нагрузка. Hewlett-Packard добавила бы сюда еще резервные компоненты, сбалансированную память, архитектуры ввода/вывода и гибкие архитектуры памяти.

Кроме того, HP включила бы в этот список гарантию наработки на отказ для дисков, процессоров и памяти, интегрированные необслуживаемые процессоры, а также архитектуры и технологии для переноса устройства хранения данных и дисков на новые серверы. Помните, что эти возможности могут поддерживаться не всеми устройствами. И не все серверы, предлагаемые Hewlett-Packard или другой компанией, имеют их по умолчанию. Составьте список и проверьте его дважды при сравнении функциональных наборов.

Что касается ПО, то убедитесь, что ваши приобретения обеспечивают легкую установку, обнаружение и управление, включая перезагрузку/загрузку. Кроме того, оборудование должно включать встроенные средства управления, простирающиеся за пределы одной стойки, и иметь удаленную консоль. В число развитых возможностей может быть добавлено распространение ПО и административное деление.

Дуг Аллен — зам. главного редактора Network Magazine. С ним можно связаться по адресу: dallen2@cmp.com.

? CMP Media LLC


Ресурсы Internet

Неплохим местом для знакомства с темой станет http://www.serverwatch.internet.com, многоцелевой сайт с новостями, учебниками и обзорами.

Библиотека сетевых вычислений в разделе «Серверы» предлагает широкий ряд документов по адресу: http://www.techlibrary.networkcomputing.com.

Информация о PCI-X и сопутствующих технологиях находится по адресу: http://www.pcisig.com/specifications.