От мэйнфреймов к облакамНесмотря на новизну рынка решений категории Cloud Management Software, здесь уже успели выделиться свои лидеры: RightScale, Univa UD, Platform computing, Zimory и Canonical, ориентированные на ПО, управляющее частными облаками. Еще одну группу составляют поставщики облачных брокеров (Cloud Service Brokerage, CSB), выступающие в качестве посредников между поставщиками и потребителями услуг внешних облаков. CSB могут выполнять агрегирующие функции, например, интегрируя данные из разных источников, они также могут выбирать сервисы от разных провайдеров, более предпочтительные по каким-то причинам.

Востребованность технологий для управления частными облаками объясняется очевидной перестройкой серверного рынка. Количество серверов, продаваемых «в розницу», заметно сокращается, зато постоянно растет число серверов, используемых для высокопроизводительных вычислений: из общего числа выпущенных по состоянию на 2009 год серверов (примерно 10 млн) в эту сферу попало более половины. Все эти инфраструктуры являются в той или иной степени облачными, ими нужно каким-то образом управлять, но, прежде чем рассуждать о ПО для управления облачными средами, стоит разобраться с тем, что представляют собой частные облака как объекты управления.

Мэйнфреймы возвращаются

Вместе с облаками возвращается эпоха мэйнфреймов, разумеется с поправкой на время. Еще шесть лет назад в беседе с Джоном Мэнли, одним из ведущих научных сотрудников центра исследований и разработок HP в Бристоле, обсуждалась тема Utility computing, и Джон обратил внимание на то, что основные идеи Utility computing до боли напоминают мэйнфреймы, только на другом техническом уровне: «Все идет от мэйнфреймов. Мэйнфреймы научили нас тому, как в одной среде можно изолировать приложения, – умение, критически важное сегодня». С позиций нынешнего дня прозвучавшее тогда можно назвать предвидением облаков; действитеьно, Мэнли тогда сказал: «Информационные системы пока представляют собой плохо упорядоченный набор разнообразных ресурсов. Взамен их в идеале, в отдаленном будущем, должна быть создана инфраструктура потребления компьютерных услуг, которая обеспечит доступ к виртуализованному пулу ресурсов».

Компания HP предложила для таких инфраструктурных сред виртуализуемые системы, например сервер HP Integrity Superdome, а недавно и Superdome 2. По сути, все самое важное было сказано, а именно: наблюдается возврат к мэйнфреймам, но на качественно новом уровне, и перенос технологий работы с данными на уровень услуг.

Подтвержденная в этой беседе оценка роли мэйнфреймов приходит на ум сейчас, когда складывается впечатление, что эволюционный виток ИТ, начавшийся вместе с этими системами более пятидесяти лет назад, замкнулся – вместе с облаками мы вернулись к централизации ресурсов, но на этот раз не на уровне мэйнфреймов с их зелеными терминалами. Нынешние события напоминают все то, что происходило и тогда, но с поправкой на следующий уровень интеграции, особенно если принять во внимание наблюдение профессора Массачусетского технологического института Ананда Агарвала. Выступая на конференции, посвященной проблемам современных процессоров, он сказал: «Процессор – это транзистор современности». Новый уровень отличается тем, что здесь также собираются мэйнфреймы, но виртуальные, и не из отдельных транзисторов, как полвека назад, а из целых процессоров или целиком из компьютеров. На заре ИТ многочисленные компании и организации «лепили» собственные компьютеры из дискретных компонентов, монтируя их на самодельных печатных платах – каждая организация (а в СССР каждый НИИ) делала свою машину, и ни о какой стандартизации или унификации и речи не могло быть. И вот на пороге второго десятилетия XXI века ситуация повторяется – точно так же из серверов-лезвий, компьютеров, разнообразного сетевого оборудования собираются внешние и частные облака. Одновременно наблюдается та же самая технологическая разобщенность и отсутствие унификации: Microsoft, Google, IBM, Aptana, Heroku, Rackspace, Ning, Salesforce строят глобальные мэйнфреймы, а кто-то под собственные нужды создает частные облака, которые являются теми же мэйнфреймами, но меньшего масштаба. Остается предположить, что впереди изобретение интегральной схемы и микропроцессора.

Облака и Utility computing

В Интернете широко растиражирован потешный ролик о Симусе Макманусе (Seamus McManus), где вымышленный Симус назван отцом облаков. Правда, за три минуты авторам удалось отразить только одну из их сторон, а именно то, что облако можно рассматривать как средство от сложности. И все же присвоенное Макманусу звание Father of Cloud Computing дает веский повод считать, что он, а не кто-то иной несет ответственность за то, что сейчас нередко смешивают две стороны облачной концепции: сервисную идею и совокупность определенных технологий. Облачными чаще всего считают гомогенные виртуализованные инфраструктуры, однако на самом деле такой подход не единственный – для реализации облачных сервисов могут быть использованы и более традиционные решения.

Существует масса различных объяснений всеобщего увлечения облаками, в том числе и возможность для полноценной реализации Utility computing облачными средствами. Сама по себе идея Utility computing не нова, и она отражает естественное желание представить ИТ-ресурсы примерно в форме коммунальных общедоступных ресурсов (газ, вода и т.д.), но до сих пор ее нечем было материализовать. Первые попытки представления вычислительных ресурсов в форме Utility датируются 1966 годом, когда Дуглас Паркхил опубликовал книгу The challenge of the computer utility. Вот что он писал: «Слово utility в словосочетании computer utility имеет очевидное созвучие с другими, более знакомыми формами услуг – электричество, телефония, где каждый пользователь потребляет небольшую часть из того, что предлагает провайдер. Помимо собственно грубой вычислительной мощности computer utility должны предоставлять вспомогательные функции по хранению, сбору и распределению информации. Они должны обеспечивать следующие возможности: одновременную поддержку большого числа пользователей; параллельное выполнение множества программ; представление ресурсов в таком виде, чтобы у пользователя создавалось впечатление, будто он работает на собственном компьютере; оплата услуг выполняется по мере их потребления; пользователь не должен испытывать ограничений по потребляемым ресурсам, их всегда должно быть столько, сколько ему нужно. Помимо наиболее общих форм представления услуг могут быть частные системы общего назначения, публичные системы специального назначения и целая иерархия систем от частных до общенациональных».

Этот фрагмент текста заимствован из книги, которая была написана почти полвека назад. В 70-е годы обсуждалась идея создания национальных вычислительных инфраструктур, и там Паркхил выступил с докладом перед правительством Канады, но опередил время. Однако когда известный ныне «визионер» Николас Карр несколько лет назад возгласил ровно то же самое, его слова восприняли как открытие, каждый выступающий считал долгом его цитировать. Чем не очевидный повод сделать очередной упрек системе образования?

Дороги к облакам

Кажущаяся запрограммированность на возврат к централизации ресурсов ассоциируется с рассказом O.Генри «Дороги судьбы», герой которого с фатальной неизбежностью приходит к одной и той же трагической развязке, вне зависимости от того, какую из трех возможных дорог выбирает. В ИТ дорог оказалось всего две: инженерно-научная, по которой шло развитие мэйнфреймов, и эмпирическая, идущая от мини-ЭВМ и персональных компьютеров. Долгие годы решение отказаться от услуг больших ВЦ и передать все их полномочия в руки пользователей выглядело перспективным – зачем переплачивать за несовершенные услуги, когда можно перейти на самообслуживание? Но потом выяснилось, что за дешевизну и доступность пришлось заплатить чудовищно нерациональным расходом ресурсов, затратами на поддержку и администрирование, которые стали препятствием для дальнейшего роста. Единственный выход – консолидация ресурсов или облака. Так две дороги сошлись, и тем, кто шел по ним, нужно принять новые правила игры: редким пешеходам первой дороги необходимо научиться предоставлять централизованные ресурсы своих мэйнфреймов в виде сервисов, а всем остальным – научиться консолидировать распределенные ресурсы, то есть построить виртуальный мэйнфрейм, а затем – распределять его ресурсы.

Первый настоящий мэйнфрейм IBM System/360 был создан в 1964 году, а спустя полтора десятка лет, с распространением мини-ЭВМ, мэйнфреймам стали предрекать скорую кончину. В 90-е с появлением Unix-серверов мрачность прогнозов хорошо проиллюстрировало заявление Стюарта Элсопа, прозвучавшее в марте 1991 года: «Я предсказываю, что последний мэйнфрейм будет выключен в марте 1996 года». Однако мэйнфреймы продолжают существовать и поныне, что объясняется заложенной в них невероятной способностью к адаптации. Сохраняя преемственность, современные IBM System z10 тем не менее радикально отличаются от System/360, превратившись в распределяемый пул ресурсов.

Все в мэйнфреймах было замечательно, но очень высокая даже по нынешним временам цена была непосильна науке, производству и индивидуальным пользователям – им нужны демократичные решения, поэтому основная масса потребителей сначала изменила мэйнфреймам в пользу мини-ЭВМ, затем ПК и далее клиент-серверных конфигураций. Финал этого пути тот же, что и у мэйнфреймов,?– распределенный пул ресурсов, который принято называть ЦОД. Однако при той же централизации ресурсов была иная экономическая модель, и при близкой модели потребления – иная архитектурная модель. Облако накрыло место пересечения двух дорог, предложив сервисные модели – SaaS, IaaS, PaaS и др.

Технологии для облаков

Дороги сошлись в том смысле, что для строительства облаков есть два подхода: либо заключить классические мэйнфреймы в сервисную оболочку, либо строить «виртуальные мэйнфреймы» из простых серверов, уже названных транзисторами современности. Это могут быть глобальные системы, то есть внешние облака, или же локальные «виртуальные мэйнфреймы», то есть частные облака. Интерпретация облаков в форме мэйнфреймов позволяет лучше понять то, что и у этих систем, как у обычных мэйнфреймов, есть аппаратное и программное обеспечение, и то, какую роль играет каждая из этих составляющих, в том числе ПО для управления. Всего через несколько лет после появления облаков стало ясно – нет какой-то одной-единственной технологии, про которую можно сказать, что именно она является облачной, скорее можно говорить об общем технологическом тренде в организации взаимодействия между пользователем и компьютерными услугами. Аналитики Gartner определяют облака как стиль в ИТ, отличающийся способностью к широкому масштабированию и эластичностью. Для реализации этого стиля существует три возможности.

В качестве основы для облака может быть использован мэйнфрейм System z или сервер HP Integrity Superdome 2 и им подобные. Такие компьютеры обладают эффективными средствами виртуализации и по многим параметрам превосходят серверы стандартной архитектуры, в частности и по размеру адресуемой памяти. Кроме того, «большие машины» проверены намного надежнее и способны годами работать без перерывов в обслуживании, поэтому, скорее всего, когда начнется массовый перенос ответственных приложений в облака, предпочтение будет отдано именно этим системам.

Второй путь – использование заготовок для частных облаков, то, что называют pre-packaged solutions, по типу предлагаемых совместным предприятием Acadia, созданным в конце прошлого года коалицией Virtual Computing Environment Coalition (VCE), в которую входят VMware, Cisco и EMC. Продукцией этого совместного предприятия является предварительно собранная и протестированная инфраструктура для частных облаков Vblock. В архитектуре этой инфраструктуры насчитывается несколько уровней: коммутационный, вычислительный, виртуализационный и самый верхний – приложений. Здесь наблюдается полная аналогия с мэйнфреймом, но уже не от одного, а от трех производителей. На коммутационном и вычислительном уровнях используется оборудование Cisco и системы хранения данных EMC Celerra NS-960, EMC CLARiiON CX4, EMC Symmetrix VAX, виртуализацию обеспечивает VMware vSphere 4, а управление, то есть функции ОС, вменены целому ряду продуктов, среди них EMC Ionix Infrastructure Manager, Vmware vCenter, EMC Navisphere и др. По совокупности они обеспечивают эксплуатационные характеристики, присущие мэйнфреймам, прежде всего надежность и масштабируемость.

Свой конструктор для сборки «виртуальных мэйнфеймов» под названием Private Multi-Cloud (PMC) предлагают компании Intel и Univa UD. Этот конструктор дает возможность собирать внутренние облака из отдельных виртуальных ЦОД (Virtual Data Center, VDC), причем каждый из VDC можно рассматривать как частное облако. Средствами PMC можно предоставлять пользователям не только традиционные облачные функции, такие как доставка и уничтожение виртуальных машин, но и управление VDC, включая балансировку нагрузки. В результате организация получает не просто вычислительные ресурсы и ресурсы для хранения данных, но одновременно и средства для автоматизации доступа к этим ресурсам. Предполагается два сценария использования PMC. В случае если владельцем становится провайдер услуг, он собирает «виртуальный мэйнфрейм», служащий внешним облаком, а пользователи получают в распоряжение VDC. Если же владельцем становится организация, то каждый из VDC поступает в распоряжение ее подразделений.

Третий способ предполагает сборку виртуальных мэйнфреймов собственными силами заказчиков или системных интеграторов, это не что иное, как следование примерам Amazon.com и Google, то есть предпочтение отдается серверам стандартной архитектуры и различным методам коммутации и виртуализации в сочетании с ПО, выполняющим функции операционных систем. Этот способ имеет право на существование хотя бы потому, что в архитектуре облаков еще имеется много неясного и никто не доказал преимуществ первых двух путей. В частности, к облакам не может быть в полной мере применена семиуровневая модель OSI, где существует три раздельных сетевых уровня (со второго по четвертый) и уровень приложений (седьмой). В условиях облаков (Cloud Networking) происходит разрушение межуровневых границ и образование «сгущений» внутри облаков, сочетающих в себе сетевые инфраструктуры, виртуальные машины и современные приложения. Здесь есть опасность того, что наблюдается, когда к созданию высокопроизводительного кластера подходят упрощенно, сводя все к сборке большого числа лезвий и объединению их средствами той или иной технологии межсоединений. Результат может оказаться плачевным, что подтверждается многочисленными примерами. Один из афоризмов, относящихся к облакам, звучит так: «Облака не покупают, их строят», причем обычно по индивидуальным проектам. Архитектура корпоративного виртуального мэйнфрейма гораздо сложнее набора лезвий, снабженных коммутаторами и виртуализационным ПО.

ПО для управления облаками

Обычно в число выполняемых инструментарием Cloud Management функций включают: интеграцию облачных ресурсов; управление работой облака; предоставление пользователям облачных ресурсов; биллинг и составление отчетов. В наиболее общем случае ПО для управления частными облаками должно реализовывать следующие функции.

Поддержка развивающихся гетерогенных систем. Полноценное частное облако должно поддерживать собственную гетерогенную структуру предприятия, а также ресурсов, предоставляемых внешними и провайдерами. В эту инфраструктуру входят серверы, системы хранения, операционные системы, гипервизоры, файловые системы и др. Критически важно, чтобы вся эта масса не была застывшей, а эволюционировала по мере изменения технологий, бизнеса и приложений. Все эти изменения должны быть инкорпорированы в частное облако.

Интеграция с существующими средствами управления. Предприятия используют разнообразные средства для управления инструментами, обеспечивающими безопасность, развертывание приложений, работу с каталогами, данными и др. Облака не могут все их заменить, наоборот, правильно спроектированное облако должно интегрировать их в себя и обеспечить их работу в режиме по запросу.

Эффективное распределение нагрузок. Работа облака должна обеспечивать эффективность как выполнения работ (workload-aware), так и использования ресурсов (resource-aware), а это значит, что решение CMS должно определять место, где будут выполняться требуемые работы, а именно нагрузки в облаке должны быть распределены так, чтобы в наибольшей степени соответствовать требованиям бизнеса.

Интеграция работы менеджеров, связующего ПО и приложений. В конечном итоге облака создаются для выполненияф приложений, а для этого средства управления должны объединить все необходимые составляющие.

Поддержка согласованности бизнеса и ИТ. В средства управления облаками должны входить механизмы, которые позволяют автоматизировать процессы в бизнесе и в ИТ.

Работа в масштабе всего предприятия. Внедрение облаков может начаться с отдельных подразделений, но в конечном итоге оно должно распространиться на все предприятие.

Platform ISF

Наиболее полным по функциональности пакетом Cloud Management для частных облаков является продукт канадской компании Platform Computing, основанной в 1992 году для разработки ПО к распределенным кластерам высокопроизводительных grid-вычислений, и нет ничего удивительного в том, что она одной из первых в ноябре 2009 года предложила продукт Platform ISF (Infrastructute Sharing Facility), предназначенный для управления частными облаками. Он построен на базе известных продуктов Load Sharing Facility, служащих для управления grid и Symphony для высокопроизводительных вычислений. Свое желание выйти в этот сегмент рынка Platform объясняет тем, что, по оценкам аналитиков, крупные компании готовы сегодня инвестировать скорее в частные облака, чем во внешние, но при этом они предъявляют к этим облакам более высокие требования, чем к виртуализации серверов. Platform ISF является универсальной платформой, она поддерживает любой набор аппаратных ресурсов, операционных систем и виртуальных машин, обеспечивая управление нагрузкой как в виртуализованной, так и в физической средах, поддерживаемых различными гипервизорами или операционными системами с использованием единообразного интерфейса.

Platform ISF имеет три основных уровня (см. рисунок).

Интеграция ресурсов. Объединение гетерогенных ресурсов частного облака в единую систему (один виртуальный мэйнфрейм). Здесь решается задача, обратная виртуализации, – из множества физических машин создается одна виртуальная. Поддерживаются все стандарты на оборудование, практически все операционные системы и гипервизоры. Кроме того, в режиме, прозрачном для пользователя, в систему могут быть встроены ресурсы из внешних облаков.

Распределение и резервирование ресурсов. Выполняется с использованием Allocation engine («мозг» облака). Эта машина в равной степени ориентирована на ресурсы и на приложения, в ее задачу входит распределение ресурсов между приложениями. Именно эта задача была в свое время основным стимулом для появления операционных систем, когда главным ресурсом было время центрального процессора.

Доставка сервисов. Верхний уровень Platform ISF, обеспечивает взаимодействие с пользователями и приложениями. Для этого Platform ISF имеет набор интерфейсов API, вызов к которым могут осуществлять приложения, связующее ПО, менеджеры нагрузок.

Оркестровка ресурсов

Расширение информационных систем приводит к проблемам их администрирования, в том числе усложняет централизованное распределение ресурсов, и одним из возможных решений может стать автоматизированная оркестровка ресурсов, реализованная на базе технологии Fujitsu ServerView Resource ORchestrator (ROR). Ключевая идея ROR отражает общий для облачных решений принцип самообслуживания. Использование ROR позволяет отказаться от назначения выделенных системных ресурсов разработчикам

и администраторам приложений и предоставить им возможность самостоятельно управлять необходимыми ресурсами на логическом уровне. Для этого они могут направлять программе-оркестратору свои запросы с указанием количества требуемых вычислительных ресурсов, систем хранения, ОС и др. Получив запрос, ROR переводит его на физический уровень, освобождая пользователей от сложного взаимодействия с физической инфраструктурой.

В основе ROR лежит двухуровневое логическое описание ресурсов. На первом уровне, L-server, могут быть виртуальные машины, физические серверы с под управлением Windows или Linux, работающими непосредственно на аппаратных платформах или гипервизорах VMware ESX, Microsoft Hyper-V или Xen с гостевыми операционными системами. На втором уровне, L-platform, может быть полная инфраструктура, состоящая из нескольких L-server. ROR в первую очередь предназначен для крупных предприятий, которые планируют повысить гибкость имеющихся ИТ-инфраструктур и получить дополнительные возможности для сокращения затрат при переводе бизнес-приложений в облакоподобные среды.

Рисунок. Архитектура Platform ISF
Время для Utility computing
Бристольскую лабораторию компании HP можно отнести к числу тех немногих мест, где концепции Utility computing, в отношении которых уже так много сказано, но еще мало сделано, превращают из маркетингового лозунга в реальные решения.
http://www.osp.ru/os/2004/04/184193

Эволюция ИТ: от продуктов до услуг
Сегодня пришло время говорить о перераспределении затрат из области технологий в область сервисов, что точнее отражает существующий тренд конвергенции технологий с сервисами.
http://www.osp.ru/os/2010/11542364/13001866

AEG в облаках

Удачным примером создания одного из первых частных облаков является проект, реализованный в компании Corus Automotive Engineering Group (AEG), которая входит в состав британского металлургического концерна Corus Group и расположена на территории кампуса Университета Варвик, где находится Международный исследовательский автомобильный центр – место сосредоточения высокого научно-инженерного потенциала. Задача ИТ-подразделения AEG состоит в том, чтобы обеспечить работу примерно 50 проектировщиков, специализирующихся на автомобильных материалах и конструкциях. Основную часть вычислительной нагрузки составляют инженерные расчеты и моделирование. До создания частного облака аппаратной платформой AEG для этой деятельности служил grid, управляемый пакетом MP Synergy компании United Devices. Обновление этой платформы было вызвано недостаточной производительностью существующих средств, желанием использовать ресурсы внешних облаков и оптимизировать расходы при возникновении пиковых ситуаций. Кроме того, возможности управляющей программы – метадиспетчера MP Synergy – оказались исчерпаны, и после того, как United Devices объединилась с Univa в одну компанию Univa UD, на смену этому продукту пришел продукт UniCloud, предназначенный для управления частными облаками и внешними выделенными облаками.

В AEG решили отказаться от очередной модернизации существующего оборудования в пользу целостного решения по типу «частного облака», построенного на собственных серверах, к которому при необходимости подключаются подготовленные для работы в облаке приложения во внешних облаках. Иначе говоря, в AEG решили построить собственный мэйнфрейм на базе аппаратной платформы своего частного облака – двухпроцессорных серверах HP DL 380.

На роль программного обеспечения управления частным облаком выбраны продукты UniCluster 5 и UniPortal 5. Первый включает Oracle Grid Engine для управлением потоком работ и ОС Oracle Enterprise Linux, а также ПО собственной разработки для управления кластерами и облаками. Второй служит для поддержки SaaS-среды. Интегрированная система Oracle-Intel-Univa позволяет в режиме SaaS решать инженерные задачи на базе как частного, так и внешнего облака.

В результате затраты на оборудование сократились на 57% с одновременным повышением производительности на 32%, затраты на администрирование уменьшились на 80%, потребление энергии сократилось на 35%.

География данных

От мэйнфреймов к облакамГлавный технологический евангелист EMC Чак Холлис считает федерирование динамических распределенных пулов данных признаком новой волны виртуализации систем хранения.

В начале 2010 года корпорация EMC представила VPLEX, устройство нового типа, предназначенное для хранения больших объемов структурированных данных, которое можно рассматривать как основу для создания динамических распределенных систем хранения – область действия VPLEX простирается до распределенных систем хранения планетарного масштаба. Чак Холлис прокомментировал журналу «Открытые системы» новые решения компании.

Как вы определяете VPLEX?

Это новая платформа для создания систем хранения, реализующих федеративные принципы работы с данными. Качественная новизна VPLEX состоит во введении еще одного уровня абстракции, на котором логические устройства (Logical Unit Number, LUN) сохраняются, но их физическое расположение становится динамическим, благодаря чему данные оказываются в нужное время в нужном месте. На VPLEX можно построить множество разных решений, например связать два ЦОД в кластер и дублировать все межсоединения каждого с сетью хранения – извне будет виден единый образ логического устройства хранения, являющийся на самом деле результатом динамической синхронизации. Можно построить систему балансирования и резервирования двух ЦОД с согласованием файловых систем, баз данных и приложений. Можно собирать в единый пул ресурсы нескольких распределенных систем vblock.

Смысла в создании такого устройства, как VPLEX, не было бы, если бы не существовало географического распределения данных. Вопрос о расстоянии между данными и приложениями возникает, когда данных достаточно много, например когда мы имеем дело с аналитическими приложениями. Если идти классическим путем, то, прежде чем запустить приложение, необходимо предоставить ему все необходимые данные, а по окончании вернуть результаты. Но объемы данных постоянно растут, и наступает момент, когда процесс их перемещения становится слишком затратным и нужно искать выход из положения, например в кэшировании, которое позволяет перемещать только нужную порцию данных. Сама по себе эта идея не нова, но сегодня кэширование становится одним из важнейших направлений развития методов перемещения данных. Под воздействием массы данных и энергетических ограничений приходится думать о «географии ИТ», то есть о том, где разместить ЦОД, где процессорные мощности, где системы хранения и т.д. Но проблема кэширования шире. Если бы, например, мы имели огромный управляемый кэш в смартфоне, то тогда решилась бы проблема связи и мы могли бы передавать только переменную часть контента.

Появление VPLEX знаменует начало новой волны технологий виртуализации систем хранения, которую наряду с фактором расстояния отличает и федеративный принцип – прежняя школа предполагала наличие у системы хранения одного хозяина, теперь же хозяев может быть много.

Что можно сказать про возможности перемещения приложений?

Это великолепный инструмент – перемещать обе составляющие, отслеживая, что в каждый конкретный момент рациональнее, перемещать данные или приложения. Если реализовать перемещение приложений, то можно значительно повысить эффективность использования серверов, они могут находиться в разных часовых поясах, можно балансировать нагрузку между ними.

С появлений технологий перемещения меняются также представления о восстановлении после аварийных ситуаций. Старая школа предполагала, что существует основной и резервный ЦОД, и в случае выхода из строя основного работа передается на резервный. Новая опирается на кластеры – если один из узлов вышел из строя, то остальные перераспределяют нагрузку между собой.

Теперь мы можем загружать только то, что нужно, и туда, куда это нужно, но для по-настоящему больших объемов данных блочные технологии VPLEX, какими бы они эффективными ни были, не подходят – без управления контентом не обойтись. Для неструктурированных данных у нас есть Atmos, и при всем своем модернизме система VPLEX пока рассчитана на классические приложения: транзакционные приложения, базы данных и т.д. Но не за горами приложения, которые будут оперировать чудовищными объемами данных, например, в США планируется создание национальной системы контроля за энергопотреблением, в которой каждый прибор будет снабжен датчиком, и, разумеется, ни одна из существующих на сегодняшний день баз данных с такой нагрузкой не справится. Все это очень интересно, но для решения подобных задач нужны новые исследования. Самые перспективные, на мой взгляд, сегодня связаны с Hadoop и ведутся в компании Cloudera, но они настолько авангардны, что говорить о переносе их результатов в практическую сферу еще рано.

Что отличает VPLEX от других подобных решений?

Алгоритмы дистанционного согласования кэшей, которые EMC получила с приобретением компании Yotta Yatta, имеющей технологию собственно кэширования, а мы знали, что следует кэшировать. Это чрезвычайно сложные механизмы блокировки, обеспечивающие работу на больших расстояниях. Федерированием данных в той или иной форме занимаются в IBM, Hitachi и в NetApp, но ни в одной из этих компаний нет упоминания о расстоянии. Мне кажется, что в ближайшем будущем рынок систем хранения разделится на две части, на локальную, где будут использоваться небольшие системы, условно говоря кластеры, и на географически распределенные конфигурации. Работая в этом направлении, мы поняли, что нынешней виртуализации необходим еще один параметр – расстояние. Если в системах хранения не использовать механизмы кэширования, подобные тем, которые реализованы в VPLEX, то придется существенно менять приложения.

Сегодня мы выходим на новый уровень абстракции – VPLEX абстрагирует расстояние. Новые приложения я называю cloud ready («готовые к облакам») – для них не важно, где они будут исполняться и где находятся данные для них. Блоки данных, файлы и др. остались в прошлом веке. Однако, на мой взгляд, все это вызывает проблему неготовности большинства специалистов к работе в новых условиях – даже относительно молодые люди несут груз старого наследия. Сложности ближайших лет будут не в технологиях, а в людях, не успевающих адаптироваться к изменениям. В большинстве случае ИТ-персонал в компаниях безнадежно отстает от требований времени, и в первую очередь это относится к невозможности принять сервисную модель.

VPLEX

В 2005 году три калифорнийских университетских исследователя Рон Унрау, Стивен Бромлинг и Уэйн Карпов получили патент на метод согласования распределенных кэшей систем хранения DDC (Distributed DAChe Coherence), позволяющий оптимизировать распределенное хранение данных, уменьшив число необходимых для согласования узлов сообщений, сократив необходимую пропускную способность. На основе предложенного метода можно строить специализированные устройства распределенного кэширования данных. К возможности практической реализации DDC сегодня подошла компания NetApp со своим программным продуктом FlexCache, а также корпорация EMC, предложившая аппаратно-программное решение VPLEX.

В функции VPLEX входит федерирование динамических пулов данных, независимо от их местонахождения и реализации технологии распределения данных по уровням хранения FAST (Fully Automated Storage Tiering), но, по существу, VPLEX воплощает в себе новую философию работы с данными.

Все известные до сих пор технологии федерализации систем хранения абстрагируются от физической привязанности блоков данных к устройствам, а VPLEX распространяет абстрагирование дальше, на географическое размещение блоков данных, что позволяет строить распределенные виртуальные ЦОД. Распределенная федерация (Distributed Federation) дает возможность создавать виртуальный мэйнфрейм и расширять его границы за пределы одного ЦОД.

Cемейство VPLEX включает продукты EMC VPLEX Local и EMC VPLEX Metro. Решение VPLEX Local представляет собой локальное объединение, которое обеспечивает упрощенное управление и бесперебойную мобильность данных между разнородными массивами. Один модуль VPLEX Local высотой 3U может виртуализовать до 8 тыс. логических устройств, а количество модулей может быть увеличено до четырех. К VPLEX могут подключаться накопители Symmetrix и CLARiiON, некоторые массивы Hitachi и IBM, а в будущем массивы HP и NetApp. Продукт VPLEX Metro – это кластер из двух VPLEX Local, которые могут размещаться на одной площадке или быть разнесены на расстояние до 100 километров.

Консорциум компаний VMware, Cisco и EMC выпустил также систему vblock – интегральное решение по хранению данных в облаках. Cisco предоставила серверы Unified Compute Solution, коммутаторы Nexus 1000v и Multilayer Director, EMC – накопители Symmetrix VMax, CLARiiON, VMware – программное обеспечение vSphere, а системы обеспечения безопасности были получены от RSA. На рынок поступят три модели: vblock0, рассчитанная на организацию от 300 до 800 виртуальных машин, vblock1 – от 800 до 3000 машин и vblock2 – от 3000 до 6000.