по прочтениям

«Модульный ЦОД как сервис», или как получить ЦОД за 5 месяцев

«Модульный ЦОД как сервис», или как получить ЦОД за 5 месяцевУслуга «Модульный ЦОД как сервис» от компании Softline предполагает производство модульного дата-центра под потребности клиента, его поставку, установку и подключение на площадке заказчика с последующим техническим сопровождением на условиях ежемесячной арендной платы. Клиент в течение 4-5 месяцев получает на собственной территории готовое решение с уровнем надежности Tier III, при этом все корпоративные данные находятся в периметре компании. Партнером по производству конструктива дата-центра является российская компания GreenMDC.

Услуга предполагает несколько вариантов конфигураций модульных ЦОДов: от 6 до 10 шкафов и мини-ЦОД с количеством стоек от 1 до 6. Модульные ЦОДы оборудованы всей необходимой инженерной инфраструктурой: системами кондиционирования, противопожарной автоматики, газового пожаротушения, мониторинга и локальной электрораспределительной сетью. Все инженерные системы зарезервированы по схеме N+1. Каждый модульный ЦОД проходит программу заводских испытаний в присутствии специалистов Softline на заводе GreenMDC.

В течение срока действия договора Softline оказывает сервисную поддержку и техническое обслуживание модульного ЦОДа согласно SLA, включающее диагностику и устранение неполадок, удаленный мониторинг инженерных систем с подключением к первой линии техподдержки в режиме 24x7. Таким образом, заказчику не требуется увеличивать штат технического персонала для обслуживания модульного ЦОДа.

«Модульный ЦОД как сервис не требует дорогостоящего строительства или переоборудования помещения, его можно развернуть с нуля в среднем за 4 месяца. Это оптимальный вариант для заказчиков, которые хотят увеличить серверные мощности и при этом не передавать данные в хранилище провайдера. Ежемесячная оплата за использование модульного дата-центра и его техподдержку позволяет перевести капитальные затраты в операционные», – говорит Алексей Воробьев, руководитель направления развития бизнеса инженерной инфраструктуры зданий и ЦОД департамент развития продаж комплексных проектов компании Softline.

20.10.2017

Теги: Инженерная инфраструктура, Модульный ЦОД, ЦОД

Замедляя – повышая

Компания «АМДтехнологии» заключила договор с голландской компанией LSVdatacenters BV, по которому она становится эксклюзивным дистрибьютором технологии Low Speed Ventilation в России. Эта инновационная технология применяется для охлаждения серверов в центрах обработки данных и позволяет существенно снизить энергозатраты ЦОДов.

Новая технология охлаждения ЦОД Low Speed Ventilation (LSV, низкоскоростное распределение воздушных потоков) разработана голландской компанией Boersema, которая построила решение на воздухоохладителях  Alfa Laval, в частности, линейке Arctigo LSV. Результаты внедрения технологии LSV в ЦОД показывают, что применение низкоскоростной вентиляции в сочетании с адиабатическим охлаждением позволяет довести показатель PUE (Power Usage Effectiveness, отношение всей потребляемой ЦОДом энергии к мощности, потребляемой собственно ИТ-оборудованием) до коэффициента 1,07. Традиционные системы охлаждения дают PUE около 1.5.

Обычно оборудование ЦОД охлаждается шкафными или внутрирядными кондиционерами с ограниченной мощностью, расположенными в серверном помещении. Традиционная система охлаждения ЦОД высокоскоростными (более 2 м/с) потоками воздуха создаёт перепады давления в помещении, что является причиной возникновения «точек перегрева», где охлаждение отсутствует или малоэффективно («эффект Вентури»). Как правило, эта проблема решается созданием избыточного давления в воздухообрабатывающем блоке, что ведёт к росту потребления электроэнергии и усложнением процесса распределения воздушных потоков в обслуживаемом помещении.

Система Low Speed Ventilation позволяет избежать этой проблемы и существенно снизить энергопотребление. Для обеспечения низкой скорости движения воздуха используются устройства охлаждения с большой площадью поперечного сечения, которые находятся в отдельном помещении, а не между рядами серверов. Большая площадь теплообменной поверхности в сочетании с электронно-коммутируемыми (EC) вентиляторами позволяет подавать в охлаждаемое помещение большие объёмы холодного воздуха при низкой скорости. Благодаря этому исключается появление зон перегрева в пределах серверного помещения. Оборудование LSV может быть размещено в ЦОД любой конфигурации.

Замедляя – повышая

Сердцем каждого охладителя является трубчатый оребрённый теплообменник. Он выполнен из прочных гофрированных алюминиевых рёбер промышленного качества и медных труб. Медные трубы собираются в пакет, образующий жесткую конструкцию, которая обеспечивает хороший тепловой контакт между трубами и ламелями теплообменника. Все детали корпуса выполнены из антикоррозионного материала, покрытого прочным эпоксидным покрытием. Оно дает лёгкость очистки и гарантирует длительный срок эксплуатации без обслуживания.

Каждая установка оборудована экономичными вентиляторами, соответствующими стандартам ЕС. По дополнительному запросу оборудование может быть укомплектовано системой связи по протоколу Modbus RS485, необходимому для точного управления вентиляторами.

Воздухоохладители оборудованы фильтрами промышленного качества с классом очистки EU4 - F9 (эффективность более 95%), которые перекрывают всю теплообменную поверхность и могут легко заменяться.

«Мы живём в век высоких скоростей, и кажется необычным, что можно увеличить производительность, что-то замедлив. Однако, концепция LSV именно такова – замедление скорости воздухоохладителей повышает энергоэффективность, и, как следствие, существенно снижает затраты на электроэнергию. Мы готовы предложить внедрение этой прогрессивной технологии всем компаниям, которые строят ЦОДы в России», - отмечает Максим Сохань, генеральный директор «АМДтехнологии».

Специалисты «АМДтехнологии» прошли обучение и сертификацию по технологии LSV. Для своих российских клиентов компания готова оказать весь спектр услуг по внедрению LSV в ЦОД – от проектирования до подбора оборудования и монтажа.

09.10.2017

Теги: Инженерная инфраструктура, ЦОД

Комплексные решения для ЦОД на базе продукции «ИМПУЛЬС»

Быстрое развитие облачных вычислений и мобильных интернет-бизнесов, рост требуемых вычислительных мощностей, повышение плотности ИТ-оборудования и рост энергопотребления вызывают множество проблем для традиционных центров обработки данных (ЦОД). Чтобы соответствовать будущим требованиям облачных вычислений и виртуализации, повысить эффективность ЦОД и контролировать стоимость инвестиций, ЦРИ «ИМПУЛЬС» представляет решения «всё в одном». Они основаны на универсальной, энергоэффективной, модульной архитектуре, которая позволяет заказчикам осуществлять быстрое развертывание, гибкое расширение и простую эксплуатацию ЦОД, а также удобное управление этими объектами.

Ключевые характеристики решений:

  • Быстрое развертывание. Модульная структура, стандартизация интерфейсов, заводская предустановка, быстрая инсталляция на месте будущей эксплуатации.
  • Энергоэффективность. Модульный ИБП с высоким КПД, прецизионная система охлаждения, термоизоляция от окружающего пространства (единая гермозона для установки ИТ-оборудования и ИБП).
  • Экономическая эффективность. Низкие затраты на построение, содержание и обслуживание, низкие проектные затраты.
  • Комплексное обслуживание. Единое решение, которое включает ключевое оборудование для построения основных подсистем, услуги по инсталляции и послепродажное обслуживание.

 

читать дальше > 29.09.2017

Теги: ИБП и кондиционирование, Модульный ЦОД, ЦОД

Защищенный канал между суперкомпьютерными центрами РАН в Москве и Новосибирске

В апреле 2017 года ресурсы двух центров коллективного пользования – Межведомственного суперкомпьютерного центра РАН (МСЦ РАН) в Москве и Сибирского суперкомпьютерного центра Сибирского отделения РАН (ССКЦ СО РАН) в Новосибирске – были объединены в территориально распределенный вычислительный комплекс, а начиная с июля этого года их соединил высокоскоростной защищенный канал передачи данных (10 Гбит/с). Высокопроизводительный защищенный канал связи создан специалистами группы компаний РСК, компаний «С-Терра СиЭсПи» и «Милеком», а также Института вычислительных технологий СО РАН.

Использование качественно нового защищенного канала связи позволит российским ученым еще эффективнее решать актуальные задачи в области фундаментальных и прикладных наук, включая такие передовые направления исследований, как цифровые и интеллектуальные технологии, высокотехнологичное здравоохранение, повышение экологичности и эффективности энергетики, развитие авиапромышленного комплекса и освоение космического пространства, искусственный интеллект (AI, Artificial Intelligence), машинное и глубокое обучение (ML/DL – Machine Learning, Deep Learning), работа с большими данными (Big Data) и другие. Многие из расчетных задач содержат конфиденциальную информацию, поэтому создание защищенного канала передачи данных между двумя суперкомпьютерными центрами было необходимо для расширения возможностей эффективного использования объединенных вычислительных ресурсов. В дальнейшем это позволит объединять и другие российские региональные суперкомпьютерные центры в единую защищенную сеть передачи данных.

«Ключевые задачи нашего центра – обеспечивать новые возможности для проведения исследований и разработок, предоставлять исследовательским коллективам РАН мощные ресурсы для решения различных научных и прикладных задач, а также обеспечивать организацию наиболее эффективной работы российских ученых из разных регионов страны. Введение в эксплуатацию защищенного канала передачи данных между МСЦ РАН и ССКЦ СО РАН, после недавней модернизации объединенных в территориально распределенный суперкомпьютерный комплекс, полностью соответствует текущим потребностям и растущим запросам наших пользователей не только в повышении скорости обработки данных, но и в обеспечении высокого уровня защиты конфиденциальной информации», – отметил Борис Михайлович Шабанов, директор Межведомственного суперкомпьютерного центра Российской академии наук.

«В тех случаях, когда расчетные задачи наших пользователей требуют гораздо больших вычислительных ресурсов, чем может предоставить ССКЦ, мы обеспечиваем возможности для использования дополнительных мощностей путем перераспределения нагрузки и запуска приложений на суперкомпьютерном комплексе МСЦ РАН. Организованный между нашими центрами защищенный канал передачи данных обеспечивает полную конфиденциальность передаваемой информации в соответствии с требованиями научных организаций и других наших заказчиков», – подчеркнул Борис Михайлович Глинский, исполнительный директор ЦКП «Сибирский Суперкомпьютерный Центр» ИВМиМГ СО РАН.

В результате проведенного тестирования была продемонстрирована возможность передавать данные по защищенному каналу со скоростью до 4 ТБ в час (около 9 Гбит/c) между двумя центрами, расположенными друг от друга на расстоянии порядка 3000 км. Защита информации обеспечивается в соответствии с отечественными криптографическими алгоритмами ГОСТ Р 34.10-2012, ГОСТ Р 34.11-2012, VKO_GOSTR3410_2012_256, ГОСТ 28147, реализованными в криптошлюзах С-Терра на базе унифицированных высокопроизводительных серверов «РСК Торнадо». В дальнейшем в МСЦ и ССКЦ планируется реализация защищенной VDI-инфраструктуры для организации эффективной удаленной работы с ресурсами суперкомпьютерных центров в условиях растущих киберугроз.

Защита высокопроизводительного канала передачи данных реализована на базе специализированного шлюза безопасности «С-Терра Шлюз 10G», который сочетает в себе инновационные технологии обработки сетевых пакетов и ГОСТ-шифрование по стандартным протоколам IPsec. Достижение высоких показателей производительности шифрования передаваемых данных стало возможным благодаря, в том числе, эффективной балансировке VPN-шлюзом вычислительной нагрузки между ядрами современных процессоров Intel® Xeon®.

Модернизация МСЦ РАН и ССКЦ СО РАН

Уместно напомнить, что ранее в этом году группа компаний РСК, ведущий в России и СНГ разработчик и интегратор высокоплотных решений для сегмента высокопроизводительных вычислений (HPC – high-performance computing) и центров обработки данных (ЦОД), модернизировала суперкомпьютерные системы в МСЦ РАН (Москва) и ЦКП ССКЦ СО РАН (Новосибирск). Они стали основой территориально распределенного вычислительного комплекса, суммарная пиковая производительность которого превысила 1,1 ПФЛОПС (петафлопс - квадриллион операций с плавающей запятой в секунду, или 1000 терафлопс). Российские ученые из учреждений РАН в Москве и Новосибирске, а также из других регионов страны, получили возможности для использования ресурсов не только одного, но и, при необходимости, сразу двух суперкомпьютерных центров одновременно.

МСЦ РАН является одним из самых мощных суперкомпьютерных центров коллективного пользования в России в сфере науки и образования. Коллектив МСЦ состоит из высококвалифицированных научных сотрудников, программистов и инженеров. Ресурсами Центра пользуются 184 группы исследователей, решающие задачи фундаментальной и прикладной направленности. В ходе модернизации суммарная пиковая производительность обновленного суперкомпьютерного парка МСЦ РАН, реализованного на базе вычислительных систем «РСК Торнадо» и RSC PetaStream с жидкостным охлаждением, выросла на 40%. В итоге общая производительность вычислительных ресурсов МСЦ РАН превысила 900 ТФЛОПС (терафлопс - триллион операций с плавающей запятой в секунду).

В настоящее время услугами ЦКП ССКЦ пользуются 24 института Сибирского отделения РАН (около 200 пользователей). После установки в марте 2017 года новой суперкомпьютерной кластерной системы НКС-1П на базе решения «РСК Торнадо» с жидкостным охлаждением общие вычислительные ресурсы ЦКП ССКЦ СО РАН были увеличены почти в два раза – на 71% до уровня 197 ТФЛОПС.

С технической точки зрения, оба проекта в суперкомпьютерных центрах РАН в Москве и СО РАН в Новосибирске уникальны тем, что это первое в мире внедрение серверных вычислительных узлов с жидкостным охлаждением в режиме «горячая вода» на базе самых мощных 72-ядерных процессоров Intel Xeon Phi 7290 (были представлены в ноябре 2016 г.), а также на основе 16-ядерных процессоров Intel Xeon E5-2697А v4. Кроме того, в ходе реализации этих уникальных проектов впервые в России и СНГ коммуникационные подсистемы двух кластерных комплексов были реализованы на основе высокоскоростного межузлового соединения Intel Omni-Path со скоростью передачи данных 100 ГБит/с.

Высокая доступность, отказоустойчивость и простота использования вычислительных систем, созданных на базе решений РСК для высокопроизводительных вычислений, также обеспечиваются благодаря передовой системе управления и мониторинга на базе ПО «РСК БазИС». Она позволяет осуществлять управление как отдельными узлами, так и всем решением в целом, включая инфраструктурные компоненты. Все элементы комплекса (вычислительные узлы, блоки питания, модули гидрорегулирования и др.) имеют встроенный модуль управления, что обеспечивает широкие возможности для детальной телеметрии и гибкого управления. Конструктив шкафа позволяет заменять вычислительные узлы, блоки питания и гидрорегулирования (при условии применения резервирования) в режиме горячей замены без прерывания работоспособности комплекса. Большинство компонентов системы (таких, как вычислительные узлы, блоки питания, сетевые и инфраструктурные компоненты и т.д.) – это программно-определяемые компоненты, позволяющие существенно упростить и ускорить как начальное развертывание, так и обслуживание, и последующую модернизацию системы. Жидкостное охлаждение всех компонентов обеспечивает длительный срок их службы.

25.09.2017

Теги: Сетевая инфраструктура, Суперкомпьютеры, ЦОД

ЦОД для ФГУП «ВНИИМС»

Новый ЦОД создается для Всероссийского научно-исследовательского института метрологической службы (ФГУП «ВНИИМС») Росстандарта. По словам представителей ФГУП «ВНИИМС», он будет поддерживать работу обновленной версии Федерального информационного фонда по обеспечению единства измерений (ФИФ ОЕИ).

В настоящее время завершен первый этап создания технической базы. Исполнителем работ по проектированию и созданию инженерной и сетевой инфраструктуры выступила компания «ICL Системные технологии». В основу проекта легли решения компании Huawei.

Силами специалистов компании «ICL Системные технологии» была проведена модернизация внутренних корпоративных сетей и внедрение инженерных систем ЦОД. Следующим этапом станет установка нового ИТ-оборудования и перенос вычислительных ресурсов института на платформу собственного ЦОД.

«Благодаря скоординированному взаимодействию производителя Huawei, официального дистрибьютора – компании «Мерлион» и команды специалистов «ICL Системные технологии», нам удалось существенно сократить срок изготовления и поставки оборудования, что, безусловно, повлияло на темпы реализации первого этапа проекта» - сообщил Дмитрий Маруллин, менеджер по работе с ключевыми заказчиками компании «ICL Системные технологии».

«Мы получили основу для Центра обработки данных в довольно короткие сроки, - отметил Александр Шалаев, заместитель директора по общим вопросам ВНИИМС, - для нашего предприятия создание собственного ЦОД является очень важным шагом. Именно он станет технологическим ядром для ФИФ ОЕИ и обеспечит его надежную и бесперебойную работу».

По оценкам экспертов компании «ICL Системные технологии», с учетом постоянного роста объемов информации, ресурсов Центра обработки данных будет достаточно для обеспечения эффективной работы ФИФ ОЕИ в течение последующих пяти-восьми лет, без необходимости наращивания мощностей и установки дополнительного оборудования.

18.09.2017

Теги: Инженерная инфраструктура, Сетевая инфраструктура, ЦОД

"Кентавр" для центра обработки геолого-геофизических данных

В центре обработки геолого-геофизических данных НПЦ «Геостра» выполняется работа с большим объемом информации и ежедневно производится множество ресурсоемких расчетов. С развитием информационных технологий растут объемы обрабатываемой информации, и как следствие, повышаются требования к вычислительным мощностям. В связи с этим компанией НПЦ «Геостра» было принято решение о модернизации инженерной инфраструктуры ЦОДа. Партнером проекта стала компания Softline, предложившая современное комплексное, и что очень важно, масштабируемое решение под ключ.

Специалисты Softline разработали дизайн-проект помещения, спроектировали и установили системы вентиляции, освещения, мониторинга и диспетчеризации инженерной инфраструктуры. Для создания оптимального уровня охлаждения использовано решение «Кентавр-15М1» производства «ПК «Предприятие Круг». Подключенные к нему источники бесперебойного питания обеспечат непрерывное поддержание заданного температурного режима в помещении при отключении электроэнергии. У холодильной установки предусмотрены централизованная консоль управления и средства контроля состояния оборудования. Для оптимального распределения горячего и холодного потоков воздуха в помещении дополнительно были установлены ПВХ-завесы.

«Команда Softline предложила функциональное масштабируемое решение, которое обеспечит бесперебойную работу вычислительной инфраструктуры ЦОДа. Благодаря проведенному обучению ИТ-специалисты компании смогут эффективнее использовать ресурсы и оперативно реагировать на возникновение нештатных ситуаций», - говорит Рустем Хафизов, главный инженер НПЦ «Геостра».

Научно-производственный центр «Геостра» занимается обработкой и интерпретацией данных сейсморазведки в модификации 2D/3D, данных ГИС и скважинной сейсморазведки, осуществляет геологическое и гидродинамическое моделирование и ведет банк геолого-геофизических данных, сопровождает разработку действующих месторождений нефти и газа.

13.09.2017

Теги: Инженерная инфраструктура, Охлаждение, ЦОД

Мониторинг качества электроэнергии в ЦОДах

ЦОДы— сложные с точки зрения электрики объекты. В них установлены многочисленные однофазные и многофазные нелинейные нагрузки, работа которых ведет к значительному «загрязнению» электросети. К этому же приводят различные коммутационные (переходные) процессы, работа систем освещения, частотно-регулируемых приводов и даже лифтов. Кратковременные провалы в сети электроснабжения, пропадание напряжения, высокий уровень составляющих высших гармоник или быстрые переходные процессы могут привести к существенным сбоям в работе ИТ-инфраструктуры.

ИБП, по своей сути, должны ограждать ответственную нагрузку от большинства проблем во внешней электросети. Но кто защитит сами ИБП? И как проверить, что происходит в электросети «за ИБП», где одна нагрузка может негативно влиять на другую? Эксперты инженерной компании «Профэнергия» рекомендуют использовать приборы, которые позволяют осуществлять постоянный мониторинг работы электросети. Речь идет не о моделировании работы сети «по шильдикам», а об отслеживании ее качества в режиме реального времени.

 

читать дальше > 11.09.2017

Теги: Инженерная инфраструктура, Мир ЦОД, Мониторинг, ЦОД

Модульный ЦОД для Богучанского алюминиевого завода

Компания «ЛАНИТ-Сибирь» (входит в группу компаний «ЛАНИТ») запустила в эксплуатацию модульный центр обработки данных на стратегическом объекте Богучанского алюминиевого завода. В рамках проекта также были подготовлены рабочие места для сотрудников и организован защищенный канал связи.

Основной целью создания ЦОДа было обеспечить максимально эффективное использование ИТ-ресурсов, повысить надёжность и производительность системы, обеспечить целостность и конфиденциальность информации, минимизировать затраты на обслуживание.

ЦОД создан на базе решения DataStone+ производства российской компании «Утилекс». Модульный ЦОД DataStone+ обладает полной самодостаточной инфраструктурой и в используемой для проекта конфигурации включает в себя: систему размещения оборудования (три стойки 42U, которые объединены вместе с кондиционерами в единый герметичный шумоизолированный комплекс), системы бесперебойного питания, распределения питания, систему охлаждения, системы пожаротушения и контроля доступа.

В проекте учитывалась небольшая площадь помещения, невозможность провести строительные работы и необходимость запустить оборудование в сжатые сроки (от подписания договора до сдачи в эксплуатацию прошло меньше четырех месяцев).

ЗАО «БОАЗ» - одно из самых современных и крупнейших металлургических предприятий в России. Строительство завода идет в самом центре страны - в Красноярском крае (Богучанский район) на территории более 2,3 кв. км (231 га). Первая очередь производства на Богучанском алюминиевом заводе запущена в эксплуатацию в 2016 году. Завод является частью Богучанского энергометаллургического объединения (БЭМО) - уникального совместного проекта компаний РУСАЛ и «РусГидро». В БЭМО, помимо Богучанского алюминиевого завода, также входит Богучанская гидроэлектростанция (БоГЭС) - вместе они образуют мощнейший производственный комплекс, в рамках которого высокоэнергоемкое производство алюминия на заводе обеспечено собственной электроэнергией, а ГЭС обеспечивает гарантированного крупнейшего потребителя.

11.09.2017

Теги: Модульный ЦОД, ЦОД

Fujitsu выпускает решение для быстрого развертывания SDDC

Интегрированная система PRIMEFLEX для VMware Cloud Foundation компании Fujitsu разработана с целью облегчить приобретение, развертывание и обслуживание крупномасштабных SDDC. Заказчики могут выбрать либо полностью готовую интегрированную систему, либо эталонную архитектуру Fujitsu. Готовые системы позволяют развернуть облако IaaS всего за несколько часов, используя привычное программное обеспечение VMware. Эталонная архитектура использует предварительно отобранные и сертифицированные узлы vSAN Ready Nodes для VMware Cloud Foundation2.

PRIMEFLEX для VMware Cloud Foundation — это предварительно сконфигурированное решение, которое включает в себя все необходимое для создания гиперконвергентных инфраструктур SDDC. Решение объединяет в себе высокопроизводительную серверную платформу компании Fujitsu и коммутационные устройства компании Cisco и QCT, поддерживает функции вычисления и хранения и сетевые функции ПО VMware, а также функции интегрированного управления физическими и виртуальными ресурсами.

Крэйг Паркер, руководитель подразделения по разработке интегрированных систем компании Fujitsu в регионе EMEIA, говорит: «Создание программно-определяемой среды оказывается сложной в решении задачей, которая связана с большим количеством ошибок и временных затрат. PRIMEFLEX для VMware Cloud Foundation – это результат тесного сотрудничества Fujitsu и VMware с целью создания продукта, который устранит риски и избыточную сложность при развертывании SDDC и значительно ускорит этот процесс».

07.09.2017

Теги: Fujitsu, Primergy, SDDC, программно-конфигурируемый ЦОД, ЦОД

Stack Group представляет облачные сервисы для бизнес-критичных ИС

Компания Stack Group представляет высоконадежные облачные сервисы для бизнес-критичных ИТ-инфраструктур корпоративных заказчиков. Облачные сервисы M1Cloud обеспечивают непрерывность бизнес-процессов, физическую и информационную безопасность, юридическую чистоту использования всех компонент облачных решений от ведущих мировых вендоров, включая серверы, системы хранения данных, подсистемы передачи данных, средств защиты информации и другие.

«При размещении бизнес-критичных приложений и программных продуктов в облаке требования со стороны крупных корпоративных заказчиков к ИТ-инфраструктуре сервис-провайдера значительно более высокие, в том числе требования к SLA, техническим компонентам, уровню компетенций. Учитывая усиливающийся тренд на цифровую трансформацию всех бизнес-процессов, мы ожидали, что спрос на облако enterprise-уровня значительно вырастит, в силу того что компании стремятся перенести все информационные системы в облака, включая даже критичные для бизнеса. Соответственно, мы изначально выстраивали облако M1Cloud в соответствии с повышенными требованиями, регулярно усиливая его характеристики. Так, сегодня данные облачные сервисы мы внесли в защищенный контур, что также соответствует требованиям рынка», — прокомментировал Евгений Горохов, исполнительный директор Stack Group.

Для размещения бизнес-критичных информационных систем для обработки персональных данных в облаке M1Cloud запущен в эксплуатацию программно-аппаратный комплекс технических средств защиты, размещенных в катастрофоустойчивом исполнении на двух площадках в Москве и обеспечивающих самые высокие уровни защиты информации — УЗ1 (для ИСПДН) и К1 (для ГИС).

04.09.2017

Теги: Stack Group, Облачные сервисы, ЦОД