Использование имени Дарвина невольно обращает нас к XIX веку, когда развивающемуся капитализму более всего нужен был транспорт. В Великобритании, главной кузнице того времени, началось строительство железных дорог. Первым стал маленький отрезок железной дороги от Манчестера до Ливерпуля. Нечто подобное происходит и сейчас, однако в XXI веке бизнесу нужны не железные, а информационные магистрали. Поэтому ИТ, обеспечивающие эти магистрали, сегодня тоже находятся накануне большого старта. Небольшой отрезок пути, по которому идет Hewlett-Packard, можно по аналогии назвать так: «От UDC до Adaptive Enterprise».

Попробуем составить перечень основных факторов, определяющих требования, которые современный бизнес предъявляет информационным технологиям.

  • Постоянно возрастает сложность ИТ-решений. Сложность объясняется необходимостью интегрировать как внешние, так и внутренние приложения, обеспечивать безопасность этих приложений, используя для этой цели обычные каналы связи и беспроводные устройства.
  • Нагрузки на ИТ неопределенны и переменны. Находящиеся вовне поставщики, партнеры и заказчики создают непредсказуемые условия для работы приложений и баз данных. Если инфраструктура центра обработки данных статична (а сегодня практически 100% таких центров статичны), то готовность к обработке переменного потока запросов требует избыточного запаса ресурсов и лишает идею центров обработки данных главного — прибыльности.
  • Увеличивается количество и разнообразие внедряемых систем. Для того чтобы справиться с разнообразием внешних и внутренних запросов, компании вынуждены распределять решения по сотням и тысячам серверов; ручное управление этим многообразием становится невозможным как по организационным, так и по финансовым причинам.
  • Возрастает цена потерь по причине нарушений обслуживания. Управление бизнес-процессами сегодня находится в зависимости от ИТ, поэтому простои оборачиваются прямыми потерями.
  • Возрастает стоимость управления ИТ-ресурсами. В управление сложными, безопасными и обеспечивающими переменную нагрузку системами предприятиям приходится инвестировать все больше и больше средств.

Системы, которые могли бы удовлетворить этим требованиями, должны быть принципиально иными, нежели нынешние. Они должны быть способны приспосабливаться к требованиям бизнеса — т. е. быть адаптивными [1].

Горизонтальные структуры — альтернатива вертикальным

На протяжении последних двух десятилетий все производители строили корпоративные информационные инфраструктуры только по вертикальному принципу, руководствуясь собственными критериями и плохо согласуя собственные представления с требованиями бизнеса. Как результат, традиционные подходы находятся если не в кризисном, то в предкризисном состоянии. Они уже не соответствуют новым требованиям бизнеса; для того чтобы они продолжали работать, хотя бы частично соответствуя предъявляемым требованиям, приходится постоянно увеличивать затраты на их содержание и сокращать бюджеты на обновление. Сегодня, по данным аналитиков META Group, только 30% ИТ-бюджетов компаний может быть направлено на развитие, остальное уходит на поддержку. В 2006 году, у тех предприятий, которые не пересмотрят свою техническую политику, это соотношение изменится до 20:80 в пользу затрат на эксплуатацию, а в 2010-м году и вовсе достигнет значения 5:95.

В HP считают, что единственная возможность, позволяющая избежать подобного драматического сценария, состоит в том, чтобы уже сегодня начать движение в альтернативном направлении, к горизонтальным инфраструктурам. Первым серьезным шагом, который сделали в HP, начав движение по этому пути, стало создание комплекса технологий Utility Data Center (UDC), предназначенных для построения центров обработки данных. Затем была разработана комплексная основа для виртуализации всех информационных ресурсов, и, наконец, нынешней осенью была анонсирована платформа создания адаптивных предприятий Darwin.

Эволюция глазами HP

Для того чтобы понять, как за прошедшие два года изменилось представление HP о будущем компьютерных систем в корпоративной сфере, достаточно сравнить два внешне очень похожих, на первый взгляд, рисунка. Первый из них датирован 2001 годом, тогда компания анонсировала Utility Data Center (рис. 1); второй появился на свет совсем недавно в связи с объявлением стратегии Adaptive Enterprise и платформы для создания адаптивных предприятий Darwin (рис. 2). Левые части рисунков совпадают; отличия обнаруживаются в правых — если один заканчивается архитектурами, основанными на сервисах, и «коммунальными вычислениями» (utility computing), то на другом есть еще управление бизнес-процессами, и grid, и адаптивное предприятие. Очень хотелось бы заглянуть вперед и взглянуть на следующий рисунок, тот, который опубликуют, скажем, еще спустя два года. Преемственность между рисунками очевидна; прослеживается совершенно определенная тенденция, которую можно экстраполировать. Рискну предположить, что в будущем, наконец, появится нечто отражающее кибернетический подход к системам управления [2].

UDC — платформа для коммунальных вычислений

Два-три года назад в наш лексикон буквально ворвалось понятие «сервисы». Новая модель вычислений, ориентированная на сервисы, появилась в результате последовательного продвижения по пути, отмеченному такими вехами, как работа в пакетном режиме, разделение времени на мэйнфреймах и миникомпьютерах, распределенные системы и, наконец, системы, основанные на ПК. Это непростое движение, в конечном счете, отражает стремление наиболее эффективно использовать ресурсы. Модель вычислений, ориентированная на сервисы, предполагает создание крупных центров обработки данных, осуществляющих эти самые сервисы.

Сама по себе идея создания центров обработки данных есть ни что иное, как логическое развитие идей разделения времени, реализованных в компьютерах в 60-х годах. Тогда принято было говорить о единственном ресурсе — процессорном времени, поэтому и создавали решения для централизованного распределения этого ресурса между множеством пользователей. Преимущества централизации в рамках предприятия очевидны; поэтому основная идея остается неизменной, но в новейшем времени ресурсы стали разнообразнее, а управление ими — на порядки сложнее.

Спустя сорок лет после появления первых систем с разделением времени приходится решать совершенно иные технические задачи. В стародавние времена компьютер как системный ресурс был един и монолитен; в американской литературе для его характеристики пользуются словом silo, которое означает бункер для хранения припасов или силосную башню. Очевидной реинкарнацией этого подхода к управлению ресурсами стали появившиеся в конце 90-х годов «мидфреймы» (мощные SMP-серверы); не случайна их родственность в названии с мэйнфреймами. Сегодня они оказались слишком дорогими, но все же SMP-серверы нельзя сбрасывать со счетов. Однако в последние годы их снизу подпирают модульные решения, что является совершенно объективным требованием жизни.

Не нужно обладать слишком большой прозорливостью, чтобы прийти к выводу, что из однородных серверных модулей и модульных накопителей, образующих пулы соответствующих ресурсов, и при наличии соответствующего коммутационного оборудования, обеспечивающего необходимую и достаточную скорость обмена данными, вполне можно собрать универсальную структуру. Идея виртуализации ресурсов лежит на поверхности — вопрос в том, на каких принципах строить подобный конгломерат ресурсов. Его можно сделать фиксированным (чаще всего так и поступают), а можно — гибким и программируемым. В последнем случае им можно управлять, при необходимости выделяя из него подмножества ресурсов, предназначенных для решения одной или нескольких задач. Подобную управляемую структуру при желании можно назвать «адаптивной» или «интеллектуальной»; она может стать основой для адаптивного предприятия. Этот путь избрала для себя HP.

Ровно два года назад HP сделала первый шаг на этом пути, объявив первую интеллектуальную ИТ-инфраструктуру, более известную как HP Utility Data Center. Объявляя UDC, в HP утверждали, что в обычном центре обработки данных использование ресурсов не превышает 35%, с переходом же к гибкому управлению ресурсами его удастся довести до 75%. Разумеется, задача оптимизации использования ресурсов важна, однако универсальность — обоюдоострый меч. Естественно, любое универсальное решение дороже и сложнее, чем специализированное, поэтому UDC в его нынешнем виде представляет интерес для ограниченной категории потребителей, для тех, чьи системы требуют частой перенастройки в связи с изменением нагрузки.

Но компания смотрит дальше. В некотором смысле, UDC — это эксперимент; в этой архитектуре заложены возможности будущих grid-конфигураций. Перед нами реальная попытка коммерциализировать изделие, выполненное в рамках стандартов Open Grid Standard Association (OGSA). Основная изюминка UDC — дизайнер топологии ресурсов grid (Grid Resource Topology Designer, GRTD). Дизайнер, снабженный графическим интерфейсом, позволяет формировать нужную на данный момент конфигурацию UDC, используя пиктограммы ресурсов. Графический интерфейс представляет собой редактор инфраструктуры (Infrastructure Editor), оформленный в виде специализированного портала. Кроме того, GRTD позволяет автоматически перераспределять ресурсы в соответствии с заданным качеством обслуживания.

Создание программируемого центра управления данными (рис. 3) решает три основные задачи, стоящие перед ИТ-руководителями:

  • перспективное планирование ресурсов;
  • обеспечение безопасности;
  • предоставление сервисов с возможностью оценки их экономической эффективности.

Последнее обстоятельство чрезвычайно важно, поскольку платное предоставление информационных услуг позволяет перевести ИТ-отделы из категории «потребляющих» подразделений в «производящие».

Физическую основу UDC составляют пулы серверов и систем хранения, из которых можно «нарезать» автоматизированные «серверные фермы» (масштабируемые и программируемые вычислительные структуры требуемого размера и архитектуры). UDC обеспечивает динамическую сборку, модификацию, мониторинг и осуществление изменения параметров многоуровневой прикладной архитектуры. Фермы в пределах UDC могут отличаться разнообразием; это могут быть и одно-, двух- и многозвенные архитектуры, на которых могут быть установлены Web-серверы, серверы приложений, которые, в свою очередь, могут взаимодействовать с серверами баз данных и файловыми серверами. В число серверов фермы могут входить и серверы, балансирующие нагрузку.

В состав UDC входит ряд ключевых компонентов.

  • Физические ресурсы, состоящие из заранее скоммутированных и заранее протестированных пулов, из которых формируются нужные фермы по запросу. При создании такого рода ресурса организация исходит из собственного представления о том, что ей нужно разместить в стойках центра. Серверы, а также устройства балансировки нагрузки, межсетевые экраны и активное сетевое оборудование в процессе эксплуатации можно перекоммутировать с использованием средств виртуальных локальных сетей; то же самое относится и к устройствам хранения данных.
  • Инструментарий управления ресурсами HP Utility Controller (UC) обеспечивает развертывание, сегментацию ферм и управление ими с учетом того, что каждая из ферм имеет свои собственные ресурсы и использует часть общесистемных ресурсов.
  • Инструментарий управления сервисами Integrated Service Management (ISM) взаимодействует с UC и обеспечивает выполнение бизнес-процессов.

Управление UDC осуществляется средствами специализированного портала UC Portal, который позволяет в наглядной форме в визуальном режиме выполнять динамическое проектирование, конфигурирование и мониторинг серверных ферм. Отдельные устройства из ферм можно «буксировать» в рамках проектируемой области, точно также можно вычерчивать и связи между ними. Портал позволяет всего за несколько шагов создавать ресурсы для выполнения новых сервисов [3].

  • Архитектура. Проектировщик определяет основные требования, включая время начала работы, начальные размеры системы и перспективы ее развития. Он же определяет соглашения об уровне обслуживания (service level agreement, SLA), в том числе, требования к готовности и безопасности. Он же — и это чрезвычайно важно — определяет стоимость услуги для ее потребителя. Это тот самый момент, благодаря которому, условно говоря, ИТ-подразделения получают возможность выйти на уровень «внутреннего хозрасчета».
  • Построение. С помощью средств портала проектировщик создает нужную ферму, он определяет состав оборудования, тип операционной системы, стандартный образ системы для загрузки. Также определяются необходимые средства для обеспечения безопасности и баланса нагрузки. Со временем, когда накопится опыт, в организации может сложиться необходимая библиотека шаблонов для создания ферм.
  • Создание. Этот этап сводится практически к нажатию одной кнопки в портале UC; последующий процесс резервирования свободных ресурсов, конфигурирования сети и систем хранения данных, конфигурирования вспомогательных устройств, конфигурирования и загрузки серверов с заданными дисковыми образами и операционными системами выполняется автоматически.
  • Инсталляция приложений и запуск сервисов. Становятся возможными после того, как система полностью сконфигурирована.

Виртуализация — фундамент адаптивного предприятия

Злоупотребление виртуальностью («возможный» и «мнимый») выглядит довольно странно, если не сказать противоестественно. Виртуализированные ресурсы отнюдь не мнимы, они материальны; просто нужно время для того, чтобы найти нужные слова для понятий, лежащих в основе новой модели компьютинга.

Согласно HP, виртуализация — это представление в абстрактном (а точнее, в обобщенном) виде серверов, накопителей, сетевых ресурсов и остальных системных компонентов с тем, чтобы сделать их доступными для динамического распределения средствами ИТ-сервисов как внутри, так и вовне предприятия (рис. 4).

 

От адаптивной инфраструктуры — к адаптивному предприятию

Рис. 4. Пространство виртуализации

Актуальность виртуализации [4] сегодня объясняется тем, что она позволяет:

  • повысить эффективность возврата инвестиций в ИТ (ресурсы, собранные в пул используются с большей эффективностью, приложения набирают нужные им ресурсы на то время, когда в них есть потребность, и возвращают их в пул, когда потребность исчезла; возможность перераспределения ресурсов, как полагают в HP, может сократить потребность в технике на 50% без деградации уровня обслуживания);
  • повысить уровень обслуживания (направление ресурсов в нужное место и в нужное время снижает вероятность того, что какой-то сервис окажется не обеспеченным вычислительными ресурсами);
  • повысить реактивность бизнеса (повышение качества обслуживания естественным образом способствует тому, что бизнес-подразделения начинают работать эффективнее).

Полностью виртуализованная среда становится платформой для создания адаптивного предприятия. Сегодня стратегия виртуализации, направленная на создание такой идеальной среды, состоит из нескольких направлений.

  • Виртуализация серверов. Виртуализация серверов может быть вертикальной и горизонтальной (рис. 5). Под вертикальной виртуализацией понимают использование мощных серверов и деление их на отдельные виртуальные серверы, требуемые по запросу. Горизонтальная виртуализация строится на основе кластеризации меньших по масштабу серверов и виртуализации приложений поверх этих серверов. В качестве интегрированного инструмента для виртуализации HP предлагает Virtual Server Environment (VSE).
  • Виртуализация сети. Под виртуализацией в данном контексте понимается использование интеллектуальных маршрутизаторов и коммутаторов, которые могут работать под управлением HP Procurve или Cisco Catalyst.
  • Виртуализация систем хранения данных. Поставляемое HP решение ENSAextended (Extended Storage Architecture) позволяет объединять в пулы накопители, подключаемые к сети (NAS), сети хранения (SAN) и системы хранения данных с прямым подключением (DAS).
  • Виртуализация приложений. Под виртуализацией приложений понимают способность прикладной программы или процесса быть выполненными в синхронном или асинхронном режиме более чем на одном компьютере.

 

От адаптивной инфраструктуры — к адаптивному предприятию

Рис. 5. Виртуализация серверов

Все эти подходы к виртуализации реализуются в рамках концепции Utility Data Center.

Виртуализация серверов

Вертикальная виртуализация предполагает консолидированное использование высокопроизводительных серверов. Как правило, этот подход уместен, если есть желание оптимизировать уровень использования существующих инвестиций. Как утверждают в HP, за счет разбиения серверов на разделы можно повысить полезную нагрузку с 15-50 до 90% без потери качества обслуживания. Комбинация виртуализации с такими возможностями, как «обеспечение емкости по запросу» (instant Capacity On Demand, iCOD) и «оплата по использованию» (Pay-Per-Use, PPU), позволяет пользователям активизировать мощности тогда, когда они им реально нужны, платя ровно за то, что использовано. Инструментарий HP Partitioning Continuum включает средства разбиения на разделы, позволяющие создавать аппаратные, виртуальные ресурсные разделы.

  • Деление на аппаратные разделы позволяет разместить приложение так, что исключается единственная точка неисправности (single point of failure, SPOF). Сейчас такая возможность существует на серверах, работающих под управлением операционной системы HP-UX; в перспективе она будет доступна на серверах, построенных на процессорах Itanium и работающих под управлением ОС HP-UX, Linux и Windows.
  • Деление на виртуальные разделы изолирует между собой в одном сервере экземпляры операционных систем и приложения, работающие под ними. В серверах HP 9000 для этой цели существует HP-UX Virtual Partitions (vPars), а в HP Proliant под управлением ОС Windows или Linux — соответственно VMware ESX Server или GSX Server.
  • Деление на ресурсные разделы, это наличие разделов, работающих под управлением одной ОС, в HP-UX и Linux для этой цели используется HP Process Resource Manager, в среде Windows есть альтернатива, либо HP ProLiant Essentials Workload Management Pack, либо Microsoft Windows System Resource Manager (WSRM).

Горизонтальная виртуализация серверов сводится к управлению серверными фермами. HP предлагает несколько продуктов для горизонтальной виртуализации, в том числе Serviceguard для ОС HP-UX и Linux, TruClusters для Tru64 Unix и Microsoft Cluster Server (MSCS).

Для максимизации эффекта, который может быть достигнут за счет виртуализации серверов, необходимо эффективное средство управления. В качестве такого инструмента HP предлагает Virtual Server Environment (VSE). Ядром VSE служит менеджер нагрузки HP-UX Workload Manager (WLM), служащий, как говорят в HP, для «оркестровки» ресурсов.

Виртуализация сети

Виртуализация сетевых ресурсов достигается путем разделения общей пропускной способности сети на множество независимых и безопасных каналов, часть из которых может быть назначена определенному устройству в динамическом режиме, прозрачном для пользователя и без видимых физических путей. Таким образом, можно собирать в отдельный сегмент сети нужное подмножество устройств, образуя вышеописанные фермы.

Для виртуализации локальных сетей используются: интеллектуальные Ethernet-маршрутизаторы и коммутаторы виртуальных локальных сетей (VLAN); адаптеры для серверов, поддерживающие VLAN; протоколы конфигурирования и управления VLAN; сервисы для администрирования VLAN. Для виртуализации глобальных сетей используются технологии ATM, MPLS и IEEE 802.1q Metro VLAN.

Виртуализация систем хранения

Виртуализация сводится здесь к созданию промежуточного уровня логических томов, предоставляемых приложениям в качестве информационного ресурса. Среди преимуществ этого типа виртуализации нужно отметить, прежде всего, то, что серверам представляется упрощенная картина хранения, детали которой спрятаны у нее внутри, что заметно упрощает процедуру управления. Другие преимущества — возможность создания пула ресурсов, который можно разделять, например, для лучшей защищенности, или, напротив, агрегировать какие-то ресурсы для лучшего использования полосы пропускания каналов. Архитектура ENSAextended позволяет предоставлять ресурсы хранения по запросу (т.е. возможность оплачивать только тот объем хранения, который реально используется). HP поддерживает все три известных метода виртуализации систем хранения: на уровне дисковых массивов, на уровне сети и на уровне серверов.

Виртуализация приложений

Методы виртуализации приложений известны гораздо меньше, чем методы виртуализации аппаратных ресурсов. Однако применительно к управляемым серверным фермам эта сторона виртуализации становится одной из наиболее критичных. Под виртуализацией приложений в HP понимают возможность одновременного выполнения программы (или процесса) на нескольких серверах. В зависимости от конкретного решения этот вид виртуализации для более эффективного использования ресурсов может потребовать или не потребовать модификации приложения. Виртуализацию приложений можно проиллюстрировать на примере следующей пятиуровневой архитектуры.

Уровень конечного пользователя. Пользователь должен иметь возможность взаимодействовать с приложением в любой географической точке. Виртуализация пользовательских ресурсов началась когда-то с отказа от выделенных терминалов и продолжилась с появлением Internet и VPN.

Уровень Web. Большинство приложений использует этот уровень как поставщика услуг, виртуализация уровня Web является относительно простой задачей, она сводится к проблеме трафика и легко решается добавлением нужного числа серверов.

Уровень приложений. Современные серверы приложений могут принимать запросы от произвольного числа Web-серверов и распределять их между компьютерами, поддерживающими выполнение приложений.

Уровень СУБД. Этот уровень наиболее сложен для виртуализации, табличные данные транслируются в файлы, которые сложно преобразовывать и перемещать. До сих пор для работы СУБД требовался серьезный SMP-сервер. Впервые реальная возможность виртуализации появилась с выходом в свет такой технологии, как Real Application Clusters в Oracle 9i.

Уровень кластеров и операционных систем. Это направление работ HP унаследовала у Digital Equipment через посредство Compaq, что позволяет компании создавать крупные кластерные конфигурации. Говоря об инструментарии данной категории, прежде всего, надо отметить TruClusters для работы в среде Tru64 Unix, а также ServiceGuard (HP-UX и Linux) и Microsoft Cluster Server.

Darwin — платформа для построения адаптивного предприятия

В прошлом, да пока, пожалуй, и в настоящем, ИТ ориентировались на стабильные бизнес-процессы, соответственно создавались специализированные приложения, которые работали на выделенных ресурсах. Такие монолитные или вертикальные решения лишь с большим трудом могут адаптироваться к условиям, когда бизнес-среда перестает быть стабильной. Дальнейшее развитие может быть обеспечено на основе горизонтального подхода к развитию информационных инфраструктур. Архитектура Darwin Reference Architecture [5] служит средством для создания и развития подобных горизонтальных информационных инфраструктур, она включает в себя основанный на стандартах «каркас», который позволяет сопоставить средства ИТ целям бизнеса.

С точки зрения бизнеса информационная инфраструктура должна удовлетворять ряду требований.

  • Информационные ресурсы должны поставляться в форме сервисов. За несколько лет Web-сервисы смогли произвести переворот в сознании. Теперь вся индустрия переходит на модель, ориентированную на сервисы, в которой все возможные ресурсы поставляются как сервисы и, соответственно, оплачиваются как услуги.
  • Ресурсы должны быть виртуализированы. Пользователя интересуют не серверы, системы хранения и сети, а вычислительные услуги, информация и коммуникации.
  • Вся среда должна быть подчинена задачам бизнеса. Успех бизнеса сегодня напрямую зависит от способности ИТ-среды приспосабливаться к изменяющимся условиям. Поэтому важнейшая задача, стоящая перед ИТ, заключается в анализе потребностей бизнеса и предоставлении необходимых ресурсов.

Darwin Reference Architecture состоит из физических элементов, т. е. серверов, сетевых устройств, систем хранения данных и программного обеспечения. Элементы должны быть собраны в систему, которая предоставляет сервисы, а далее сервисы должны поставляться пользователям. Таким образом, архитектура состоит из двух типов ресурсов, которыми нужно управлять, — фабрики виртуализованных исходных ресурсов и целевых ресурсов. Darwin Reference Architecture реализует три уровня управления:

  • компонентный уровень, управляющий составом центра обработки данных;
  • сервисный уровень, управляющий агрегированными компонентами и поставляющий прикладные сервисы;
  • уровень бизнеса, управляющий пользователями и правами доступа к приложениям.

Иными словами, Darwin Reference Architecture обеспечивает постоянный баланс между запросами бизнеса на сервисы и ресурсами инфраструктуры, поставляющими эти сервисы. Этот баланс обеспечивается обратной связью, функцию элемента обратной связи должны выполнять ИТ-специалисты предприятия.

На рис. 6 представлена общая схема архитектуры Darwin Reference Architecture в том виде, как ее трактуют авторы. Странно, но в ней нет цепочек обратной связи. На верхнем уровне находятся бизнес-процессы, они являются движущей силой, они определяют те сервисы, которые им должны предоставлять ИТ. Приложения находятся уровнем ниже, они получают, организуют и трансформируют информацию для бизнес-процессов. Инфраструктурные сервисы поставляют вычислительные ресурсы и ресурсы систем хранения данных приложениям. В свою очередь, они используют виртуализованные ресурсы, образующие фундамент адаптивного предприятия.

Создание адаптивного предприятия представляет собой замкнутый жизненный цикл, состоящий из четырех этапов. На первом этапе производится оценка текущего состояния, на втором строится архитектура, на третьем выстраивается система управления, а на четвертом устанавливаются внешние связи.

***

Было бы безумно интересно, если бы платформа Darwin Reference Architecture могла быть представлена не как «каркас», а как сложный организм, на который воздействуют внешние силы, в котором есть механизмы обратной связи, стабилизирующие этот организм. Иначе говоря, есть реальная потребность в кибернетическом представлении Adaptive Enterprise, но пока его нет. Оно должно непременно появиться, потому что Darwin Reference Architecture, как и инициативы других крупных производителей, только первые шаги по направлению к естественным информационным технологиям, к Organic IT.

Литература
  1. Infrastructure and Management solutions for the Adaptive Enterprise, May 2002, Forrester Research.
  2. Леонид Черняк, Естественные технологии. Hewlett-Packard на пути к Organic IT. // Computerworld Россия, № 28-29, 2003.
  3. HP Utility Data Center. Technical white paper, October 2001.
  4. HP virtualization. Computing without boundaries or constraints. Enabling an adaptive enterprise, 2003, Hewlett-Packard.
  5. Building an adaptive enterprise. Linking business and IT, October 2003, Hewlett-Packard.

Поделитесь материалом с коллегами и друзьями