Мэйнфреймы XXI векаРынок облачных технологий и сервисов совсем молод, но по своим показателям он уже опережает многие традиционные сегменты компьютерного рынка (общим объемом чуть менее одного триллиона долларов) и продолжает расти «как на дрожжах". По данным Gartner, в 2009 году его суммарный объем составлял 58,6 млрд долл., в 2010 году вырос до 68,3 млрд, а к 2014 году, по оценкам, достигнет 150 млрд. Сегодня общая стоимость услуг, предоставляемых через облака, оказывается больше, чем весь бизнес, например Oracle, а через пару лет будет больше, чем весь бизнес IBM. Показательно и то, что облака, как это обычно было в ИТ, перестают быть американским эндемиком, а распространяются по миру, и соответственно доля, приходящаяся на США, падает: с 2008 года она уменьшилась с 70 до 50%. Такой невиданный прежде прогресс в отдельно взятом сегменте неслучаен, он должен быть вызван объективными предпосылками. Какими?

Показателен еще один факт: внутри облачного сегмента особенно быстро развивается одна из его составляющих, странным образом называемая частными облаками. Невзирая на странность, в 2010 году все без исключения участники рынка технологий для корпоративных информационных систем переключились на создание аппаратно-программных платформ — так называемых интегрированных стеков — для облаков этого типа. Такого слаженного маневра за всю компьютерную историю еще не наблюдалось. Почему такое стало возможным? В чем секрет привлекательности облачных решений вообще и перенесенных в корпоративную среду в частности?

Облака и мэйнфреймы, сходства и различия

Сейчас можно предположить, что в образе облака открылась новая, неведомая прежде ИТ-парадигма, которую можно сравнить с айсбергом. То, как именно видимая часть надвигающегося технологического айсберга увиделась поначалу, побудило назвать ее облаком, однако по мере приближения к этому айсбергу стали вырисовываться контуры гигантской подводной части, и нам еще предстоит узнать, что на самом деле собой представляет эта скрытая часть. Скорее всего, она совсем и не облачная, однако прошедшего времени еще недостаточно для полноценного понимания, с какой новой реальностью нам приведется иметь дело в будущем, поэтому пока сохраним верность термину облако, но если верить в диалектическое учение, то справедливо предположить, что речь идет о централизованных вычислительных системах, по своей сути близких к мэйнфреймам, но построенных на качественно ином уровне.

Наличие невидимой поначалу части той или иной новации не редкость, в истории технологий обнаруживается огромное множество примеров, когда подлинные возможности изобретения открываются не сразу, на первых этапах эксплуатируются его второстепенные функции, а главные свойства проявляются по прошествии некоторого времени. Порох был изобретен в Китае в XI веке для фейерверков, но его метательный потенциал открыл монах Бертольд Шварц несколько веков спустя. Или же, например, волчок, по раскопкам известный с доисторических времен, — его идею перенес в гироскоп немецкий астроном и математик Иоанн Боненбергер лишь в 1817 году. В наше время все происходит намного быстрее, но тем не менее и сейчас в отдельных случаях между моментами открытия и осознания его подлинного смысла остается временной зазор, и пример тому облака. По аналогии с порохом можно сказать, что поначалу они представлялись всего лишь начинкой для шутих, но постепенно приходит понимание, что в них заложено нечто такое, что может изменить правила игры во всей информационной индустрии.

Облака: три источника и три составные части

Своим появлением термин cloud computing обязан Эрику Шмидту, который первым сказал, что у нас на глазах рождается новая модель компьютерных систем, поддерживающих сервисы, данные и архитектуру на удаленных серверах, и если в нашем распоряжении есть браузер, то можно получить доступ к этому облаку.

Когда лет пять-шесть назад началась активная дискуссия вокруг возможностей облачных вычислений, казалось, что облачная идея сводится к созданию ограниченного числа гигантских, суперцентрализованных ЦОД, которые смогут обеспечить потребности всех пользователей Интернета. Тогда доминировала аналогия с энергосетями, где потребности миллиардов потребителей обеспечивает ограниченное число крупных электростанций. В 2011 году кажется наивным то, как еще недавно Скотт Макнили, представляя облачную идею, ссылался на высказывание, приписываемое Томасу Уотсону — одному из создателей IBM. Макнили напомнил, будто-то бы тот в 1943 году заявил, что на весь мир потребуется не более пяти компьютеров. По мнению главы переставшей существовать Sun Microsystems, Уотсон был по-своему прав, он просто опередил время. Да, компьютеров потребуется не пять, но вот суперкомпьютеров, реализующих облачные функции, на весь мир будет достаточно не более дюжины. Но и сам Макнили точно так же ошибся в своем предвидении; оказалось, что идеи, заложенные в глобальные облака, вполне применимы и к локальным структурам, вот тогда и появилось странное новообразование «частные облака", плавающее не где-то в небе, а в собственном ЦОД. Таких центров, построенных на облачных принципах, будет гораздо больше дюжины, да и не облака они вовсе. Имеется ряд публикаций, отвергающих факт существования частных облаков, в них частные облака называют мифом; возможно, со временем найдется более удачное название, но пока остановимся на этом.

Частные облака, год первый

В начале 2009 года стало ясно, что будущее корпоративных информационных систем лежит в частных облаках: ряд компаний выпустили соответствующие решения, и будущее, как казалось, приобрело конкретные черты.

С момента объявления облаков прошло всего три года, однако можно с уверенностью констатировать — облачный подход вовсе не ограничивается теми глобальными решениями с доступом через Интернет, с которых все началось, и что с равным успехом он может быть перенесен на уровень корпоративных ЦОД. Суть не в удаленности абстрактного провайдера сервисов, а в том, что облачный подход позволяет материализовать, причем взаимодополняющим способом, две основные идеи, о которых упорно говорили на протяжении предшествующих лет как о чем-то насущно необходимом, но реально недостижимом. Одна из них — коммунальная обработка (utility computing), вторая — самоуправляемость (autonomic computing). За несколько лет до появления облаков мы писали о том и о другом, но тогда это казалось отдаленным будущим, постулированием общих принципов без должного инженерного обеспечения. С появлением облачных решений наметился практический путь и к utility computing, и к autonomic computing, а реализация этих принципов приведет к радикальным изменениям в ИТ. Одновременно удастся решить проблему сложности, преодоление которой стало одной из важнейших задач ИТ-индустрии.

Время для utility computing

В обозримом будущем должен сложиться открытый рынок, на котором вычислительные ресурсы будут предоставляться по запросу. Это один из самых радикальных шагов к grid, потому что создаются приложения, которые не должны переписываться при изменении платформы. Со временем данную инфраструктуру можно будет построить на принципах grid, и потребитель даже не заметит этого перехода.

Выделение отдельной категории «частные облаков" легко объяснимо, оно следует из сложной природы вычислительных и информационных услуг и разнообразия используемых ресурсов. Любые глобальные облака эффективны лишь тогда, когда предоставляемые ими услуги просты. Вода, электроэнергия, газ — примеры простых унифицированных ресурсов, и для них можно создать единую и универсальную, обслуживающую самых разных потребителей систему снабжения. Именно такие сети использовались в качестве прототипов, когда говорили о малом числе глобальных облаков. Особенно преуспел в упрощенной трактовке вычислений как услуг Николас Карр в своей книге "Великий перелом" (Big Swich), где все сведено к так называемому эффекту динамо. Но есть ресурсы более сложные и дорогие, например автомобильное топливо, которое бывает разным, поэтому маловероятно создание системы топливопроводов, аналогичной системе газопроводов.

Транспортные услуги, например воздушные перевозки, по экономическим причинам за редчайшим исключением осуществляются на коммунальном уровне, а наземный транспорт может быть как коммунальной, так и сугубо индивидуальной услугой, например прокатные велосипеды в Европе. Чем сложнее услуги, тем сложнее система их предоставления. Модель предоставления сервисов должна быть адекватна их природе. Если мы говорим об информационных услугах, то необходимость работы с большими объемами и, что критически важно, конфиденциальных данных с заданным уровнем обслуживания является главной причиной для создания частных облаков. Нежелание отдать свои данные вовне будет всегда, какими бы совершенными ни были глобальные облака: обеспечить заданный уровень обслуживания проще в локальном ЦОД.

Об облаках следует говорить предельно осторожно, компьютерная индустрия пребывает на старте большого пути, и наше знание об этом предмете сравнимо с тем, что было известно широкой общественности о компьютерах в 50-е годы. Но уже сейчас можно назвать несколько основных качеств, отличающих идеальные облака от современных компьютеров, и прежде всего это внедрение принципов самоуправления и коммунальной обработки с оплатой ресурсов по мере их использования. С точки зрения пользователя, облака можно рассматривать как следующий по отношению к мэйнфреймам и серверам шаг в разделении ресурсов: способность надежно, безопасно и независимо друг от друга обрабатывать множество запросов на сервисы (multi-tenancy), распределенный доступ к общему пулу ресурсов (shared resource pooling), динамическое представление ресурсов (dynamic resource provisioning) и оплата за услуги, подобная коммунальным платежам (utility-based pricing). На нынешнем уровне развития технологий единственным инструментом для отчуждения ресурсов от их физической природы остается виртуализация, и, может быть, со временем будут найдены более простые и логичные методы управления вычислительными ресурсами и ресурсами работы с данными, но с архитектурной точки зрения облака должны представлять собой сложные самоуправляемые (и в этом смысле автономные) инфраструктуры.

Из описания идеального облака следует очевидный вывод: облака есть не что иное, как красивая метафора, об их существовании пользователи не задумываются так же, как, скажем, включая что-то в электросеть, мы не задумываемся о существовании генерирующих мощностей. Облако, будь то глобальное или частное, можно представить как мэйнфрейм, поддерживающий коммунальную модель вычислений. Если это признать, то дальнейшие размышления относительно любых видов облаков становятся предельно простыми. На самом деле физически нет ни глобальных, ни частных облаков, а могут быть большие (корпоративные) и очень большие (глобальные) мэйнфреймы. Если принять эту посылку, то несложно разобраться и с труднопереводимым термином multi-tenancy, сравнив его с мультизадачностью — свойством операционной системы или среды программирования обеспечивать параллельную обработку нескольких процессов.

Тип компьютеров, который мы называем мэйнфреймом, так же как и облако, появился не сразу, а в процессе эволюционного развития с середины 50-х до середины 60-х годов. Тогда основным ресурсом, подлежащим распределению, было время центрального процессора, который работал быстрее остальных компонентов компьютера, и, чтобы избежать простоя, его стали распределять между несколькими задачами. Десять лет потребовалось на разработку операционной системы, поддерживающей многозадачный режим работы мэйнфрейма: пионерские работы были выполнены в Массачусетском технологическом институте по руководством Фернандо Корбато, их результатом стала система Multics (1964), а по-настоящему широкое распространение многозадачность получила начиная с OS/360 (1966).

Ресурсы облаков намного разнообразнее, чем у мэйнфреймов, и могут предоставляться посредством IaaS, PaaS, SaaS, DaaS и других схем, но если ресурсы мэйнфреймов статичны, то облачные ресурсы динамичны — вычислительные мощности, системы хранения данных, коммуникационные средства могут быть собраны в общие пулы. Отсюда возникают две основные задачи: управление пулами и распределение их ресурсов между потребителями. Для распределения нужна развитая система, обеспечивающая режим, который мы называем multi-tenancy — следующий уровень по отношению к многозадачности, ресурсы на нем распределяются не между задачами, а между облачными приложениями. В англо-русских словарях tenant переводится как временный обитатель, арендатор, но ни одно из этих значений не подходит, поэтому пока воспользуемся простой транслитерацией оригинала. Тенант — это приложение, работающее внутри или вне предприятия, отличающееся тем, что нуждается в своей собственной безопасной виртуальной среде исполнения. В зависимости от функций приложения эта среда может распространяться на несколько уровней — от уровня хранения данных до пользовательского интерфейса.

Облака и технологическая сингулярность

Для того чтобы расти с удвоением за два-три года, рынок облачных сервисов должен быть стимулирован спросом, и причину спроса на этот вид услуг следует искать в характерных для текущего момента отличительных особенностях нынешней фазы технологического прогресса. Но к чему приведет этот бурный рост? Данный вопрос очень интересует общество — на английском языке выходит огромное количество публикаций, авторами которых являются экономисты, социологи, различного рода аналитики, в том числе и футурологи.

Исторически сложилось так, что на родине облачных сервисов, в США, культура общества ориентированна на технологии, и не случайно футурологи – специалисты по прогнозам, сочетающие научное предвидение с мистическим вдохновением, — играют там примерно ту же роль, что и астрологи в некоторых других странах. Под их влиянием за несколько последних десятилетий в сознании тех, кто так или иначе причастен к науке и технике, укрепилось представление о неизбежности грядущей технологической сингулярности. Активная популяризация подобного видения будущего началась в 1993 году на конгрессе, организованном Центром космических исследований NASA. Именно здесь писатель-фантаст и математик Вернор Виндж сделал утверждение о том, что переход к эре думающих машин произойдет скачкообразно, и отразил своеобразие такого переходного процесса предложенным им термином "технологическая сингулярность", использовав аналогию с математической сингулярностью. В математике сингулярность — это точка, в которой значение функции стремится к бесконечности или же имеет какие-либо иные нерегулярности поведения. Виндж использовал первое значение сингулярности, связанное со скачкообразным уходом значения в бесконечность. Таким образом он хотел выразить свое убеждение в том, что начиная с какого-то момента возникнет взрывной рост интеллектуальных возможностей машин, который приведет к появлению компьютеров, способных к самостоятельному мышлению, и сетей, осознающих себя разумными существами. Во взаимодействии с такими машинами человек также может приобрести новые способности.

Теорию Винджа развили его коллеги, особо удачливыми на этом поприще оказались Рэй Курцвейл, автор книги «Сингулярность уже близка», и Майкл Диринг с его трудом "Рассвет сингулярности". По прогнозам первого, от момента, когда произойдет взрыв, нас отделяет всего несколько десятилетий. Справедливости ради напомним, что много раньше возникло близкое по смыслу философское учение, названное в 50-е годы трансгуманизмом, в его основе лежит предположение, что человек не является последним звеном эволюции, а значит, может совершенствоваться до бесконечности. В России его связывают с именами Семена Корсакова — изобретателя механических "интеллектуальных машин", Николая Федорова — мыслителя и философа-футуролога, а слово "трансгуманный" впервые использовал еще Данте Алигьери в своей «Божественной комедии».

Но не только футурологи говорили о роли компьютеров в истории человечества, о вызываемом ими ускорении темпов технического прогресса — рационально мыслящие ученые также задумывались над этими вопросами. Наиболее известны работы Марвина Минского, основоположника теории искусственного интеллекта, и Ирвина Гуда, соратника Алана Тьюринга по работам, связанным с расшифровкой шифрограмм. Минский написал несколько книг на эту тему, в том числе "Общество Разума" и "Эмоциональная машина", а Гуд — две книги "Рассуждение о будущей первой суперинтеллектуальной машине" и "Логика человека и машины". Более прозаично представлял себе будущее Джон фон Нейман, кстати именно он первым использовал термин "сингулярность". В отличие от футурологов и некоторых своих коллег, он не вкладывал в него ничего паранормального и думал о естественном эволюционном прогрессе технологий, а не о создании искусственного сверхчеловеческого интеллекта. Скорее он был близок к пониманию сингулярности как начала нерегулярности поведения, считая, что ускорение технического прогресса не бесконечно и рано или поздно приведет к такому положению, когда дальнейшее развитие с теми же темпами станет затруднительным: "Развитие технологий с постоянно возрастающим ускорением подведет к сингулярности в истории технологической гонки, за которой действовать так, как человек действовал прежде, станет невозможно. Дальнейший прогресс станет менее очевиден и сложен для понимания».

Стек для частного облака

Появление интегрированных стеков стало закономерным следствием развития компьютерных технологий, достигших такого уровня зрелости, когда на смену сборки систем из отдельных устройств разных производителей приходят комплексы «все в одном». Пока стеки еще не могут стать панацеей — еще какое-то время продолжится процесс создания индивидуальных решений, но рано или поздно приоритет будет отдан стандартным системам, хотя, разумеется, останутся ниши для специальных решений. Если говорить об облачном интегрированном стеке, то он обеспечивает как минимум коробочное решение Infrastructure as a Service (IaaS) в форме единой готовой к эксплуатации виртуализованной инфраструктуры. Переходы от рынка отдельных компонентов к рынку готовых решений меняют отраслевую структуру и усиливают концентрацию, возрастает роль крупных производителей, а нынешняя война — это борьба за передел сферы влияния в области решений для корпоративных информационных систем.

Интегрированный стек для частного облака

 

Интегрированный стек в упрощенном виде (см. рисунок) строится из стандартных аппаратных средств и включает в себя сеть хранения или подключаемые к сети устройства хранения, унифицированное ПО для развертывания и управления, инструментарий виртуализации. Ключевым моментом является сквозная (pervasive) виртуализация, позволяющая агрегировать в пулы все ресурсы информационных систем. Полученная инфраструктура имеет меньше физических компонентов, меньше кабельных соединений и занимает меньшее физическое пространство, чем существующие сегодня облачные инфраструктуры, построенные по принципу «зоопарка». Существенно сокращаются сроки развертывания частных облаков — продуктивная работа начинается уже не через недели и месяцы, а на следующий день, поскольку не требуется предварительное конфигурирование. Интегрированный стек поступает от одного производителя или от альянса производителей, что гарантирует высокое качество обслуживания и снижение затрат на приобретение и общую стоимость владения.

***

Какая бы точка зрения на технологическую сингулярность ни восторжествовала и что бы нас ни ожидало за предполагаемой критической точкой, с уверенностью можно сказать, что мы к ней приближаемся и соответствующие изменения неизбежны. В этом нас убеждают события последнего десятилетия, заставляющие относиться и к облакам, отказавшись от привычного традиционного, сугубо технологического образа мышления. Скорее всего, именно облака, а точнее, мэйнфреймы XXI века станут основой информационных технологий эпохи сингулярности.

Как и кто поделит частные облака?

То, что происходит сейчас вокруг частных облаков, сначала получило название Enterprise Cloud War, а потом более точное Stack War. Поле битвы — интегрированные стеки, представляющие собой готовое или почти готовое изделие для создания частного облака. Ситуация возвращает нас в 70-е годы XX века, когда множество компаний в разных странах (США, СССР, Великобритания, Франция, Израиль, Япония, Германия и др.) собирали свои собственные мэйнфреймы, и в силу разных обстоятельств осталась одна IBM. Видимо, в ближайшие годы нам предстоит наблюдать сражение на поле интегрированных стеков, и наверняка в этой войне не будет одного победителя-монополиста.

Наиболее зрелым из числа производителей, способных принять участие в новой войне, является IBM — единственная корпорация, сохранившая верность мэйнфреймам и раньше других внедрившая сервисную модель взаимодействия с клиентами. Прекрасные шансы у HP — после приобретения EDS у компании есть практически все для того, чтобы выступать на равных с Голубым Гигантом. Покупка Sun компанией Oracle делает последнюю полноправным участником военных действий. Помимо этой "тройки» в борьбу вступают коалиции — две под знаменем Vmware: VCE Coalition (VMware, Cisco и EMC) и VCN (VMware, Cisco и NetApp) и группа компаний, объединившихся вокруг технологий виртуализации от Microsoft (IBM, HP, Dell, Fujitsu, NEC и Hitachi).

Статус-кво на театре военных действий комментируют представители работающих в России ИТ-компаний, имеющих свои интересы на рынке интегрированных стеков.

Валерий Корниенко, руководитель отдела продаж сервисного подразделения IBM:

Стек технологий IBM, предназначенных для создания частных облаков, обычно складывается из двух групп решений — на платформе Power и на платформе x86 (формфактор лезвий). В отличие от других производителей, мы сохраняем поддержку и RISC, и Unix — обе платформы поддерживаются виртуализуемыми системами данных, в том числе и XIV.

Платформа Power по своей природе хорошо виртуализуется, а ресурсы, благодаря архитектурным особенностям, достаточно просто динамически перераспределяются, и в этом отношении по целому ряду показателей серверам на процессорах Intel еще далеко. На уровне аппаратных гипервизоров для платформы Power также все технологии давно отработаны — управление всеми типами виртуальных ресурсов в Unix-системах осуществляется достаточно прозрачно, и в ОС AIX для этого имеются все необходимые встроенные средства.

Для платформы Intel у IBM нет своего собственного программного обеспечения по виртуализации, и здесь чаще всего применяются продукты VMware, но заказчик может использовать и другой гипервизор, например Linux KVM (IBM поддерживает работы, ведущиеся в этом направлении) или гипервизор Hyper-V от Microsoft.

На уровне сервисного ПО предлагаетcя семейство продуктов Tivoli, которые сведены в IBM Service Delivery Manager, включающий в себя Tivoli Provisioning Manager, Service Automation Manager и ряд других продуктов. Эти средства позволяют составить каталог виртуальных машин и вычислительных сервисов, предоставляемых в частном облаке, а также поддержать все этапы пользования ресурсами, от их выделения до возвращения в общий пул. Средствами Tivoli осуществляется пребиллинг (подготовка к оплате за использованные сервисы), а для реального выставления счетов достаточно ввести необходимые коэффициенты. Продукты Tivoli позволяют строить портал самообслуживания, на котором клиент заказывает сервисы и виртуальные машины с предустановленным ПО. Портал позволяет обходиться без участия системных администраторов и служб поддержки, он открыт для заказчика, который может его достраивать, менять пользовательский интерфейс и т. д.

Все перечисленные решения объединены в коробочный продукт Cloud Burst, существующий в версиях для платформ Power или x86. По умолчанию область действия Cloud Burst распространяется на небольшие конфигурации, включающие серверы, системы хранения, гипервизоры на выбор. Всего этого обычно достаточно для начала работы, кроме этого имеются определенные сервисы для развертывания. В результате, заказчик получает готовое к работе частное облако, в котором можно начать эксперименты и которое можно масштабировать и развивать в нужном направлении. Cloud Burst можно приобретать как вместе с необходимым оборудованием, так и только его программную часть для развертывания на аппаратной инфраструктуре заказчика силами специалистов IBM. В любом случае у заказчика будет развернут готовый к работе аппаратно-программный стек. Если требуется более сложное облачное решение, то оно создается при поддержке сервисного подразделения IBM; более того, компания может предоставить сервис по хостингу частных облаков.

Антон Антич, глава представительства VMware в России и СНГ:

Готовые решения vBlock и FlexPod позволяют заказчику построить виртуальную среду и в дальнейшем получать сервис не по конкретному элементу от определенного производителя, а пользоваться совокупной поддержкой решения. Появление данных стеков не упраздняет возможности выбора и построения виртуализованной инфраструктуры VMware из отдельных компонентов компаний-производителей, представленных в альянсах по созданию интегрированных стеков. Стеки позволяют заказчику получать вариант готового решения по виртуализации на передовых платформах, скоординированного по поставкам оборудования и ПО до технической поддержки. Именно здесь проявляется выгода от покупки готового решения — заказчик получает необходимые интегрированные компоненты с заранее определенными мощностями и протестированной нагрузочной мощностью. Кроме того, в случае какой-либо нештатной ситуации заказчик может обратиться к любой из компаний-разработчиков, предлагающих решения стека, и получить поддержку вне зависимости от компонента, с которым она связана. Эти особенности и делают новое предложение жизнеспособным, а также расширяют возможности решений по виртуализации от VMware.

Игорь Корнетов, руководитель отдела технических решений EMC:

Система vBlock — результат совместного проекта коалиции VCE. Продукция коалиции собрана из «комплектующих» ее участников: серверы Unified Computing System, коммутаторы Nexus и Multilayer Director от Cisco, системы хранения данных Symmetrix VMax, Unified Storage, системы обеспечения безопасности RSA и система управления ИТ-ресурсами Ionix UIM от EMC, облачная ОС vSphere от VMware. Сегодня предлагается три модели: vBlock0 (от 300 до 800 виртуальных машин), vBlock1 (от 800 до 3000) и vBlock2 (от 3000 до 6000).

Альянс VCE необычен — он сильно интегрирован технологически и при этом каждый из его членов свободен в выборе партнеров, причем в некоторых случаях партнерами могут быть прямые конкуренты других членов VCE. Подобная независимость не мешает тому, что созданные вертикально интегрированные решения имеют свои сильные стороны по отношению к конкурентам. Дело в том, что каждый из членов альянса лидирует в своей области и, при должной координации, качество совокупного решения в итоге может оказаться выше, чем качество решения от одного производителя. Действительно, всем известны опасения пользователей по отношению к облакам, но, сложив вместе все решения от членов альянса VCE, можно убедиться, что совместно они перекрывают все возможные "дыры». Например, продукт для управления Universal Infrastructure Manager ориентирован на управление модулями vBlock, но может быть использован и вне границ альянса. Универсализм имеет прямой практический смысл — наверняка найдутся заказчики, у которых возникнет потребность выйти за пределы функциональности модулей vBlocks, или сочетать vBlock и традиционные архитектуры, или передать часть приложений во внешние или гибридные облака. В этих случаях предпочтительно иметь общую для всей виртуализованной инфраструктуры систему управления. Вместе с тем более широкому проникновению облаков в жизнь мешает отсутствие общепринятых стандартов, несмотря на то что подобные усилия предпринимаются. Положительным является наличие у каждого из трех основных производителей, специализирующихся на виртуальных машинах, бесплатного продукта для перехода от одной машины к другой, однако они работают на уровне приложений, а было бы интересно обеспечить интеграцию на нижних, близких к физическим уровнях — такую виртуализацию можно было бы назвать горизонтальной.

Василий Маланин, менеджер по продуктам в области виртуализации и высокопроизводительных вычислений российского представительства Microsoft:

Выражение Fast Track ("наиболее прямой и быстрый путь к цели") используется в Microsoft для обозначения готовых к использованию комплексных продуктов, создаваемых в сотрудничестве с партнерами. Один из них, Hyper-V Cloud Fast Track, объявленный в ноябре 2010 года, упрощает создание частных облаков, объединяя Windows Server 2008 R2 Hyper-V, System Center и другие продукты с аппаратными платформами партнеров. Таким образом, видно, что инициатива по созданию интегрированных стеков для Microsoft не в новинку. Компания сотрудничала с HP в сфере СУБД и различных систем обработки данных — SQL Server Fast Track Data Warehouse ускоряет развертывание SQL Server 2008 R2 Enterprise на платформах HP, Dell, Bull, EMC и IBM, при этом сокращается стоимость, экономится время и повышается надежность создаваемых хранилищ данных.

Говоря о Fast Track, не следует все сводить к частным облакам, в которых только инфраструктура представляется в виде сервисов, точнее говорить о конвергенции того и другого, и недавние объявления, сделанные, например, HP, по сочетанию инфраструктурных сервисов с сервисами баз данных, свидетельствуют об этом.

Hyper-V Cloud Fast Track разрабатывается совместно с ведущими производителями оборудования — HP, Dell, IBM, Fujtsu, Hitachi и NEC, но в России больше перспектив у первых четырех, а Fast Track представляет собой конфигурацию, подобранную согласно рекомендациям Microsoft. Согласованность здесь — это не просто гарантия того, что данное ПО будет работать на данном оборудовании, а еще и гарантия облачных качеств, таких как масштабирование. Облачная сертификация сложнее, чем, скажем, сертификация для СУБД, для этой цели Microsoft разрабатывает спецификации, а затем в соответствии с ними тестирует аппаратуру и ПО от партнеров.

Hyper-V Cloud Fast Track включает в себя гипервизор Hyper-V, систему управления, интегрированную с системами виртуализции, физическими системами и с приложениями. Каждый из партнеров по созданию интегрированного стека имеет свободу в выборе дополнительного ПО, позволяющего дифференцировать себя по отношению к другим. Практически все они располагают продуктами для глубокого мониторинга аппаратного обеспечения, интегрируемого в управляющее ПО Fast Track. Производители оборудования разрабатывают интеграционные скрипты для порталов самообслуживания и для поддержки процедур развертывания. Отличительная особенность Hyper-V Cloud Fast Track в исполнении HP состоит в ориентации этого продукта на HP Blade System Matrix, где решены задачи глубокой интеграции и имеется развитая система сервисного обслуживания.

Сергей Члек, руководитель направления HP BladeSystem HP Россия:

Компания HP большое внимание уделяет конвергентной инфраструктуре, объединяющей серверы на платформах Integrity и х86, все системы хранения, включая системы 3PAR и Lefthand, а также сетевое оборудование. Опора на конвергентные инфраструктуры позволяет, в первую очередь благодаря технологии HP Virtual Connect, оптимизировать целый ряд показателей, в том числе таких базовых, как эффективность и адаптивность. Одним из факторов эффективности является сквозная управляемость аппаратной платформы — стек решений от HP обязательно включает в себя среду управления, сопряженную с верхними уровнями приложений. Программы, образующие эту среду, исторически имели в названии префикс Insight: (Insight Control, Insight Dynamics и т. д.), означавший их способность оценивать состояние оборудования.

Создав стек из аппаратного обеспечения и управляющего ПО, компания получила возможность для интеграции с любыми гипервизорами, предназначенными как для х86 (VMware, Microsoft Hyper-V и Citrix Xen), так и для систем Integrity и платформы HP-UX. Все системы, прежде всего на серверах-лезвиях, интегрируются в общую среду, и у компании нет разделения на Unix и другие платформы: для администратора все они единое целое.

Флагманским продуктом для создания любой эффективной среды, в том числе и для частных облаков, является Matrix Operating Environment. Виртуализация — одна из составляющих этой среды, причем она распространяется не только на классические гипервизоры для серверов, но и на остальные компоненты физической среды. Например, данное решение позволяет переносить нагрузки с одного физического сервера на другой, как если бы это делалось на виртуальных машинах, но с большей затратой ресурсов. В Matrix интегрированы все известные компоненты, а его отличительная особенность состоит в том, что HP несет ответственность за их интеграцию и поддержку решения как комплексной платформы. В создании такой платформы большую роль играет сотрудничество с VMware и Microsoft. Компания HP способна предоставить решения для всех уровней интегрированного стека для облаков — например, в дополнение к Matrix предлагается комплекс продуктов Cloud Service Automation, формирующий верхний уровень стека, достаточный для управления жизненным циклом всех приложений в организациях. Если речь идет об Integrity, то все решения исходят из HP, но для платформы x86 компания не планирует разрабатывать собственный гипервизор и работает с партнерами. Задача в том, чтобы любое облачное решение, кто бы его ни предлагал, лучше всего раскрывалось на конвергентной инфраструктуре Matrix. Важно также подчеркнуть: представление о том, что все может быть заменено виртуализованными х86, — это иллюзия, и пока все нагрузки современного ЦОД еще невозможно перекрыть только этими процессорами. Критически важные бизнес-приложения выполнялись и будут выполняться на платформе Unix.

Вадим Гусев, ведущий консультант департамента предпроектного консалтинга по технологиям, Oracle СНГ:

В арсенале Oracle имеются средства для поддержки всех трех типов сервисных моделей облаков: IaaS, PaaS и SaaS. Модель IaaS может быть реализована как на собственной программно-аппаратной инфраструктуре Oracle, так и на инфраструктуре других поставщиков. Сегодня компания предлагает весь ряд серверов корпоративного класса — от простых серверов для решения небольших задач до многопроцессорных компьютеров на платформе SPARC. Для модели PaaS у Oraclе имеется ряд продуктов, но чаще используются СУБД и сервер приложений, которые могут быть запущены как на физических компьютерах, так и в режиме виртуализации. Oracle не сводит виртуализацию исключительно к виртуальным машинам — для компании основное содержание виртуализации состоит в том, что СУБД и сервер приложений способны поддерживать виртуализованную в целом аппаратную grid-инфраструктуру. Для снижения затрат на инсталляцию многоуровневых решений предлагается использовать Oracle Virtual Assembly Builder, который оперирует виртуальными устройствами (appliance). Полученная средствами Assembly Builder сборка включает в себя нужное количество таких устройств: баз данных, серверов приложений, сетевых хранилищ и т. д. Сборка создается с использованием библиотеки Applainces посредством описания всех компонентов системы, протоколов и портов взаимодействия, а также других параметров, а на выходе получается виртуальная среда, готовая для инсталляции на виртуальные машины. Oracle Enterprise Manager позволяет управлять всеми уровнями облака, от уровня приложений до отдельных физических устройств. Enterprise Manager включает средства мониторинга и автоматизации управления жизненным циклом приложений, автоматической диагностики и генерации рекомендаций и т. д. В линейку продуктов входит комплекс Oracle Identity and Access Management Suite, решающий, например, уже ставшие классическими задачи по управлению учетными записями.

Помимо построения частных облаков из стандартных элементов, Oracle предлагает готовые коробочные наборы: машину баз данных Oracle Exadata — готовое облачное решение для обработки больших объемов данных и разных типов нагрузки и машину связующего ПО Oracle Exalogic Elastic Cloud — готовое решение, поддерживающее выполнение приложений.

 

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF