[Маше: про Большие Данные и Hadoop верстать в последнюю очередь]

Японский суперкомпьютер обновил свой рекорд

Суперкомпьютер K Computer японского государственного научно-исследовательского института Riken, в настоящий момент занимающий верхнюю строчку в мировом рейтинге суперкомпьютеров Top500, поставил новый рекорд, достигнув уровня производительности 10,51 PFLOPS по тесту LINPACK. Сборка суперкомпьютера в его первоначальной конфигурации была закончена компанией Fujitsu в августе нынешнего года, он состоит более чем из 88 тыс. восьмиядерных процессоров SPARC64 и занимает 864 стойки. Окончательно же работы над К завершатся летом 2012 года, после отладки операционной системы, компилятора и другого программного обеспечения.

[ http://www.idgns.com/idgimage.nsf/uniqueid07/NEWS-8NJ3KV ] Фото: Fujitsu.

Вышла Solaris 11

Новая версия оперционной системы Oracle Solaris лучше приспособлена к работе в облачных средах и более тесно интегрирована с другими продуктами Oracle, утверждают в корпорации. Любое приложение для Solaris теперь сможет работать в облачной среде.

Архитектура Solaris 11 позволяет создавать внутри операционной системы отдельные разделы, или «зоны» (Zone), внутри которых разные приложения могут работать одновременно и независимо друг от друга на одной и той же машине. Как заявляют в Oracle, такая реализация обладает в 15 раз меньшими накладными расходами, чем реализация на основе виртуальных машин VMware.

Многие новые функции Solaris 11 призваны облегчить администрирование систем в крупной инфраструктуре. Реализована возможность быстрого перезапуска без обычной проверки оборудования, что может резко ускорить процесс обновления в центрах с тысячами установок Solaris. Добавлен и пакетный менеджер, автоматически отслеживающий версии установленных приложений, библиотек и их зависимости друг от друга. Solaris 11 соответствует спецификации Open Group для реализаций Unix и поддерживает все программы, написанные для предыдущих версий Solaris вплоть до версии 6. Oracle сертифицировала на совместимость на бинарном уровне свыше 11 тыс. приложений.

На мэйнфреймах IBM появится поддержка Windows

С 16 декабря на мэйнфреймах IBM zEnterprise 196 появится возможность управления Windows-приложениями. Таким образом будет преодолен последний крупнейший «водораздел» между системами в центрах обработки данных. Потребность в данной возможности ощущалась уже давно — есть множество Windows-приложений, в том числе разработки самой IBM, взаимодействующих с мэйнфреймами и получающих от них данные. Сейчас управлять такими приложениями можно только отдельно от мэйнфреймов. Как заявляют в IBM, поддержка Windows на мэйнфреймах позволит повысить защищенность и быстродействие сред на основе этих систем. Аналитики полагают, что теперь можно будет организовывать очень быстрые соединения между Windows-приложениями и мэйнфреймами. На сегодня платформа мэйнфреймов IBM System z поддерживает операционные системы z/OS, Linux и Unix.

[http://img.ibtimes.com/www/data/images/full/2010/07/23/15479-the-ibm-zenterprise-196-combines-two-servers-on-one-mainfram.jpg ] Фото: IBM

Большие деньги — в стартапы, занимающиеся Большими Данными

На конференции Hadoop World в Нью-Йорке компания Accel Partners объявила о создании венчурного фонда для поддержки стартапов, специализирующихся на новых перспективных технологиях обработки больших объемов данных. Accel намерена финансировать разработки всех компонентов экосистемы Больших Данных — от технологий хранения и управления данными до приложений бизнес-аналитики, совместной работы, мобильных и вертикальных приложений и т. д. В консультативный совет фонда войдет ряд известных специалистов по обработке Больших Данных из Apache Hadoop, Factual, Cloudera, Стэнфордского университета, Bit.ly, Facebook и Solarwinds. Компания Cloudera сама недавно получила финансовую поддержку Accel. Кроме того, весной будущего года Accel проведет в Кремниевой долине конференцию Big Data Conference.

Корпорациям требуются специалисты по Hadoop

Многие аналитики и руководители ИТ-служб крупных компаний говорили на конференции Hadoop World о дефиците специалистов как об одном из главных препятствий для внедрения Hadoop. Представители JP Morgan Chase и eBay, выступавшие на конференции с пленарными докладами, даже воспользовались этой возможностью, чтобы пригласить участников конференции к себе на работу. Кластерная платформа Hadoop позволяет работать с гораздо большими объемами структурированных и неструктурированных данных, чем современные реляционные СУБД. Многие компании начинают использовать ее для анализа материалов социальных медиа, журналов веб-серверов и прочих данных, чтобы получить новую информацию о клиентах и собственном бизнесе. Им требуются специалисты, имеющие опыт аналитической работы с новыми инструментами для прогнозного и статистического моделирования — например, с платформой MapReduce и языком R, поясняет аналитик Forrester Research. Кроме того, необходимы специалисты по администрированию систем на базе Hadoop. В этой роли сейчас удается применить свои навыки сотрудникам, обслуживавшим системы Teradata и Oracle Exadata. Повысится также спрос на специалистов по средствам хранения данных и интегрированию Hadoop с существующими реляционными СУБД.

Informatica выпускает анализатор для Hadoop

Еще в июне компания Informatica включила в свою платформу коннектор для кластерной платформы с открытым кодом Hadoop, предназначенный для перемещения данных между кластерами Hadoop и другими хранилищами данных. Результатом развития этой технологии стал пакет HParser — анализатор неструктурированных данных, способный переводить их в более структурированный вид для использования в задачах, решаемых на Hadoop. В HParser входит набор библиотек для разбора различных типов данных, от широко распространенных стандартных документов XML до специфических форматов HIPAA, используемого в медицинских приложениях, или ASN.1, часто применяемого для описания коммуникационных протоколов. Пакет поставляется в двух коммерческих версиях, HParser Industry Standards и HParser for Documents, и в бесплатной, распространяемой компанией Hortonworks. Эта компания была учреждена Yahoo в июне и на днях представила свой вариант дистрибутива Hadoop.

Аналитики высоко оценили появление HParser. В его состав входят графические инструменты разработки процедур разбора данных, что может значительно облегчить внедрение HParser и Hadoop в корпоративной среде.

СУБД MarkLogic подключена к Hadoop

Компания MarkLogic выпустила СУБД MarkLogic 5, в состав которой теперь входит коннектор для фреймворка распределенной обработки данных Hadoop. Визитной карточкой MarkLogic является способность хранить, индексировать и выдавать по запросу большие объемы неструктурированных данных, от текстовых документов до медиафайлов. MarkLogic 5 позволяет сисадмину задать характеристики накопителей, используемых для хранения баз, после чего система будет автоматически сохранять данные частого обращения на твердотельные накопители, а остальные – на более медленные тома. Появились информационные панели, позволяющие одновременно управлять разными кластерами MarkLogic, например используемыми для разработки, тестирования и рабочего применения. СУБД интегрирована со свободным инструментарием мониторинга сети Nagios и ПО системного управления HP Operations Manager. Есть API для интеграции с другими системами управления. Предусмотрены функции восстановления работы после аварий.

Новая версия вышла в том числе в редакции для разработчиков, но теперь ее можно использовать в рабочем режиме. Ограничения – использование не более чем на одном узле с двумя процессорами и размер базы не больше 40 Гбайт.

Sybase IQ поддерживает Hadoop и MapReduce

Компания Sybase, входящая в состав SAP, выпустила новую версию аналитической СУБД IQ – 15.4. Ее главные особенности – наличие основанного на стандартном SQL набора API для использования технологии MapReduce и интеграция с фреймворком Hadoop. Среди других новшеств IQ – API для работы с СУБД на Java, расширения уже имевшегося набора интерфейсов для C++, поддержка языка разметки Predictive Model Markup Language и библиотека добычи данных и статистики компании Fuzzy Logix, предназначенная для применения с MapReduce. Sybase также отныне предлагает бесплатную редакцию IQ Express, не ограниченную по времени использования, но предназначенную только для нужд разработки и накладывающую лимит 5 Гбайт на размер базы.

Аналитики Forrester Research предлагают свое объяснение назначения Sybase в свете активного маркетинга комплекса SAP HANA, тоже рассчитанного на обработку Больших Данных: если последний благодаря своему высокому быстродействию лучше подходит для анализа операционной информации, то IQ, учитывая масштабируемость этой СУБД, — для обработки данных в быстрорастущих хранилищах.

SAP показала новые разработки

На конференции Sapphire в Мадриде представители компании SAP сделали целый ряд анонсов. Особое внимание привлечено к работающей в оперативной памяти СУБД HANA, которую в SAP планируют интегрировать со многими другими своими разработками. В частности, SAP объявила о выпуске пакета Business Warehouse, использующего в качестве базы данных HANA. Технический директор SAP Вишал Сикка считает, что это огромный шаг в развитии HANA, показывающий, что теперь она способна справиться с нагрузками, возникающими в хранилищах данных большого объема. Объявлено также о начале закрытого бета-тестирования интеграционной PaaS-платформы NetWeaver Neo и о партнерстве с компанией VMware по переводу на виртуальную основу традиционных ERP-систем SAP. Большая часть из них все еще работает на мэйнфреймах, а попытки развертывания в виртуальных средах на серверах x86-архитектуры были единичными. VMware и SAP готовы помочь в этом клиентам.

Для мобильных приложений SAP открывается специальный сетевой магазин с доступом через Web и с устройств на базе iOS. Впрочем, для покупки программ пока придется обращаться непосредственно к SAP или ее партнерам.

[http://www.andyross.net/sikka.jpg ] Фото: SAP

Apache Cassandra готова к применению на предприятиях

Разработчики распределенной СУБД категории NoSQL с открытым кодом Apache Cassandra объявили, что система готова к корпоративному применению. По утверждению руководителей проекта, для развертывания СУБД уже не требуется чрезвычайно высокая квалификация сисадминов, как раньше. Два года назад пользователям через список рассылки был задан вопрос, что бы они хотели видеть в версии Cassandra 1.0. Все затребованные возможности теперь реализованы, утверждают разработчики. Среди изменений – поддержка компрессии данных в фоновом режиме и новые методы оптимизации использования рабочей памяти серверов. Наиболее серьезные перемены касаются быстродействия: по сравнению с версией 0.6 скорость считывания данных увеличена на 400%, а скорость записи – на 40%.

По мнению разработчиков, Cassandra обладает рядом уникальных преимуществ по сравнению с другими NoSQL-системами, которых становится все больше. СУБД Apache подходит для сред, состоящих из нескольких ЦОД, поскольку не полагается на головной узел для координации своей деятельности. Кроме того, будучи столбцовой, Cassandra может хранить более обширные наборы данных, чем СУБД типа «ключ-значение».

IBM выпускает аналитические серверы

Компания IBM анонсировала аппаратно-программные комплексы для решения задач бизнес-аналитики и обработки транзакций, ближайшим конкурентом которых будут устройства серии Oracle Exadata. Серверы IBM Smart Analytics System 9700 и 9710 основаны на архитектуре мэйнфреймов zEnterprise и могут работать под управлением операционных систем SUSE или Red Hat Linux. Сервер 9710 в компании позиционируют как платформу начального уровня, а 9700 — как высокопроизводительную и надежную систему для аналитических задач. Две другие модели серверов — Smart Analytics System 7710 и 5710 основаны соответственно на процессорах Power и x86. Сервер 7710 работает под управлением системы AIX и предназначен для хранилищ данных объемом до 10 Тбайт. Сервер 5710 базируется на архитектуре System x, работает под управлением Linux, а в комплекте с ним поставляются пакеты InfoSphere Warehouse и Cognos 10.

Кроме того, IBM представила аналитический комплекс DB2 Analytics Accelerator, построенный на технологиях System z и приобретенной IBM в прошлом году платформе Netezza. Этот комплекс подключается к СУБД DB2 и позволяет получать аналитические результаты по мере обработки транзакций в облаке.

Рис. Информация как конкурентное преимущество

[????]

По данным совместного исследования MIT Sloan Management Review и IBM Institute for Business Value, 58% организаций считают существенной или очень важной роль информации и аналитики в достижении конкурентных преимуществ в своей отрасли. По сравнению с прошлым годом этот показатель вырос более чем на 50%.

NIST дал окончательное определение облакам

После 15 черновиков и двух лет работы Национальный институт стандартов и технологий CША опубликовал 16-е, окончательное определение понятия «облачные вычисления»: согласно NIST, это модель обеспечения удобного повсеместного сетевого доступа по требованию к совместно используемому пулу конфигурируемых вычислительных ресурсов, которые можно быстро предоставить и внедрить с минимумом административных усилий или взаимодействия с сервис-провайдером.

У облачных вычислений также должны быть пять основных характеристик: самообслуживание по требованию, широкополосный сетевой доступ, пул ресурсов, возможность быстрой перенастройки или расширения и измеряемое обслуживание. Перечислены три сервисные модели – программа, платформа и инфраструктура в виде сервиса и четыре модели внедрения – частная, публичная, гибридная и общественная (community). Последняя определяется как «облачная инфраструктура для использования ограниченным сообществом потребителей из организаций, имеющих общие интересы».

Как заявляют в NIST, данное определение предназначено для широкого сравнения облачных сервисов и стратегий их внедрения, а также как стимул перехода от обсуждения того, что такое облачные вычисления, к дискуссии о том, как их лучше всего использовать.

IBM представила портфель предложений для частных облаков

Новый портфель предложений для облачных сред IBM SmartCloud Foundation содержит базовый набор функций для построения частных облаков. Пакет включает в себя три компонента. Решение SmartCloud Entry поставляется в составе пакета IBM Starter Kit for Cloud и предлагает готовые программные модули для создания частных облаков на базе виртуализованных аппаратных систем IBM System x и Power Systems. Решение предоставляет упрощенные функции начальной загрузки и администрирования на системах Power и x86 с интерфейсом самообслуживания. ПО SmartCloud Provisioning реализует механизм инициализации и систему управления образами для динамического создания или развертывания виртуальных машин. Как заявляют в IBM, это решение может создавать сотни виртуальных машин за минуты и масштабироваться до более чем 4 тыс. виртуальных машин менее чем за час. Третий компонент – SmartCloud Monitoring – предоставляет средства мониторинга для обеспечения прозрачности и контроля функционирования виртуальных и физических сред с ресурсами систем хранения данных, сетей и серверов.

SuSE разрабатывает платформу частных облаков

Подразделение SuSE компании Attachmate объявило о планах выпуска программной системы SuSE Cloud на основе комплекса OpenStack, с помощью которой предприятия смогут строить частные облака. SuSE Cloud выйдет через 9-12 месяцев. Раннюю версию системы уже можно загрузить для тестирования, но в рабочем режиме применять ее не рекомендуется. Инструментарий совместим с гипервизорами Microsoft и VMware, а также с Xen и KVM. Он работает на SuSE Linux Enterprise Server. Совместно с SuSE Cloud можно пользоваться системой SuSE Studio для построения и внедрения облачных приложений, а также серверным административным инструментарием SuSE Manager.

OpenStack – это группа программных проектов, распространяемых по лицензии Apache, для создания вычислительных облаков. Основой OpenStack является IaaS-система Nebula, разработанная в аэрокосмическом агентстве NASA, и платформа для хостинга компании Rackspace. Обе эти платформы были выпущены их разработчиками в открытых кодах. Дистрибутивы OpenStack также разрабатываются компаниями Nebula и Piston Cloud Computing, основанными выходцами из NASA.

Компании готовы к переходу к облачным технологиям

В Hewlett-Packard представили результаты исследования основных тенденций в области ИТ в России и регионе EMEA, которое провело аналитическое агентство Coleman & Parkes. В ходе исследования выяснилось, что более 60% компаний в регионе EMEA и 73% организаций в России собираются использовать облачные технологии для более эффективного взаимодействия с заказчиками и гражданами. Около 50% организаций в регионе EMEA и более 50% организаций в России рассматривают облачные вычисления как двигатель инновационного развития организаций. При этом около 80% респондентов в регионе EMEA и 90% в России считают нужным перевод бизнес-критичных приложений в облако в ближайшие несколько лет.

В ходе исследования также было выявлено, что 50% руководителей российских компаний считают отсутствие гибкости ИТ-инфраструктуры препятствием для решения бизнес-задач, стоящих перед предприятием; 38% опрошенных видят причину отставания бизнеса в устаревающих приложениях, однако только 5% российских ИТ-директоров, принявших участие в опросе, сообщили, что пересматривали портфель используемых приложений за последние три года. В то же время, по мнению более трети респондентов, скорость обработки запросов клиентов могла бы увеличиться на 30% в случае оптимизации вычислительных мощностей компаний, и более 40% опрошенных полагают, что их организации могут сэкономить до 10% ИТ-бюджета в случае модернизации приложений.

Облако не только экономит

Многие компании, начинающие работать с облачными системами, обнаруживают, что для достижения обещанной поставщиками экономии средств необходимо перевести на облачную платформу не просто некоторые процессы, а значительную их часть. В определенном смысле облака сами стимулируют свое внедрение, заявляют эксперты канадской аналитической фирмы Info-Tech Research Group.

Снижение себестоимости в любом случае не должно быть основным мотивом для перехода на облачные системы, считают аналитики. Преимуществом является не столько стоимость, сколько повышение гибкости и уменьшение времени вывода на рынок.

Помимо облачных вычислений, аналитики Info-Tech выделяют еще четыре главные тенденции развития ИТ. Это мобильность, безопасность, социальные средства и обработка больших объемов данных. Количество сотрудников, желающих использовать в работе личные устройства, растет, и игнорирование этой ситуации, по оценкам аналитиков, обойдется компаниям в среднем на 24% дороже, чем даже ограниченная поддержка. Мобильность стимулирует создание приложений за пределами ИТ-службы, которой теперь придется выступать в роли партнера бизнес-подразделений.

Parallels поможет хостерам конкурировать с Amazon

Компания Parallels представила решение для сервис-провайдеров Parallels Automation for Cloud Infrastructure. Как заявляют в компании, PACI обеспечивает предоставление сервиса аренды виртуальной инфраструктуры, аналогичного Amazon Elastic Compute Cloud. Технология PACI разработана в Parallels Research, дочерней компании Parallels, являющейся резидентом Сколково.

PACI базируется на платформе Parallels Automation и включает в себя инструменты для виртуализации, автоматизации, биллинга, самообслуживания, а также настраиваемый онлайн-магазин, в котором клиенты сервис-провайдера могут купить сервисы аренды виртуальной инфраструктуры и в дальнейшем самостоятельно управлять облачным ЦОД через простой интерфейс. Как поясняют в Parallels, одномоментно клиент может задать нагрузку (число процессоров сервера, объем памяти и хранения), аналогичную работе тысячи серверов. Клиент провайдера PACI имеет возможность создавать в своем виртуальном ЦОД контейнеры, которые отличаются простотой управления, повышенной емкостью и производительностью, или виртуальные машины. Полная автоматизация всех процессов максимально упрощает для персонала провайдера работу с PACI.

Облака оставят службы техподдержки в прошлом

Лаборатория реактивного движения агентства NASA в настоящее время использует десять публичных и частных облаков и хранит там практически все данные: от фотографий поверхности Марса для всеобщего обозрения до совершенно секретной информации. Уже скоро, полагает технический директор лаборатории Том Содерстром, объемы данных, которые придется хранить организациям масштаба NASA, будут измеряться экзабайтами. А такие объемы можно хранить только в облачной системе. С другой стороны, это значит, что с данными может работать кто угодно где угодно в любое время и с любого устройства. А это, в свою очередь, приведет к тому, что корпоративные службы технической поддержки уже не смогут справляться с запросами сотрудников, вооруженных самыми разнообразными моделями смартфонов и планшетов, и содержать их в прежнем виде станет просто невыгодно. Поддержка перейдет с пользовательского на экспертный уровень, считает Содерстром. Сотрудникам будут помогать, например, писать мобильные приложения для задач бизнеса. Так, один из ученых NASA создал сайт Lunar Mapping and Modeling Project, где представлены все находящиеся в распоряжении лаборатории данные о Луне.

SAP CRM из облака HP

Компании HP и SAP заключили соглашение, в соответствии с которым специалисты подразделения HP Enterprise Services будут обеспечивать облачную доставку приложений SAP. Первым таким приложением станет ускоренно внедряемое решение на базе системы SAP CRM, которое предназначено для сотрудников отделов сбыта, маркетинга и сервисного обслуживания. Доступ к системе будут предоставлять центры обработки данных HP Enterprise Services, расположенные по всему миру. CRM-система быстрого внедрения компании SAP состоит из программного обеспечения и услуг, позволяющих заказчику за короткий срок получить основной функционал управления взаимоотношениями с клиентами. В этом решении имеется механизм безопасной обработки данных, в котором правила защиты информации и обеспечения конфиденциальности можно быстро адаптировать в соответствии с потребностями конкретного предприятия.

Software AG перенесет в облако все свои продукты

Предлагаемые компанией Software AG связующее программное обеспечение WebMethods и инструментарий моделирования процессов ARIS сертифицированы для исполнения в облаке Amazon Elastic Compute Cloud и на виртуальных машинах VMware, сообщили представители Software AG. По их словам, это лишь первый этап долгосрочного проекта компании, в рамках которого все ее программные продукты будут оптимизированы для облачного применения.

Для использования EC2 заказчикам понадобится заключить отдельный контракт с Amazon и приобрести у Software AG лицензии на ПО с оплатой в зависимости от количества процессоров, на которых работает продукт. Можно также воспользоваться уже имеющимися лицензиями. Облаком можно будет пользоваться для нужд разработки, тестирования и рабочего применения. Конечная цель облачного проекта Software AG – построить полноценную платформу в виде сервиса. Некоторые ее компоненты уже есть: WebMethods как сервер Java-приложений и Terracota в роли системы кэширования в оперативной памяти. Также запланированы среда разработки, система совместной работы и платформа коммуникаций реального времени.

Citrix выпустит «нуль-клиент на кристалле»

Компания Citrix представила прототип «нуль-клиента» — тонкого клиента, реализованного в виде системы на кристалле. «Нуль-клиенты» Citrix будут выпускаться компаниями NComputing, TI, Wyse и LG. Как заявляют в Citrix, интегрированный чип позволит снизить стоимость тонких клиентов на треть. Citrix также анонсировала сервис ShareFile, который, по словам представителей компании, позволит «мгновенно обменяться любым файлом с кем угодно» с помощью карманных устройств, планшетов и ноутбуков. До конца года в данном сервисе появится технология Follow-Me Data, которая, согласно описанию, позволит «получать доступ к любым данным из любого источника с помощью любого устройства». С ее помощью, объясняют в Citrix, можно будет открывать любой документ, редактировать его, делиться им и сохранять его.

В ближайших планах Citrix — завершение сделки по приобретению британской компании App-DNA, разработчика инструментов, ускоряющих перенос приложений из физических в виртуальные операционные системы. Кроме того, Citrix разрабатывает технологию CloudConnector, объединяющую облачный «ускоритель» компании Contendo с ПО доставки приложений Citrix NetScaler.

VMware развивает средства администрирования

На конференции VMworld Europe в Копенгагене компания VMware представила очередную версию пакета vCenter Operations Management Suite и два новых инструмента для администрирования виртуальных систем: vFabric Application Management Suite и VMware IT Business Management Suite. Автоматизация административных задач — главный способ повышения эффективности работы ИТ-службы, считают в VMware. Для реализации этой стратегии собранные в пакете vCenter Operations Management Suite инструменты для решения конфигурационных и эксплуатационных задач подкреплены аналитическими функциями. Так называемые бейджи в новом интерфейсе Operations Manager 5.0 дают администраторам общее представление об эффективности работы инфраструктуры, а впервые появившийся в составе пакета продукт Infrastructure Navigator 1.0 без применения агентов демонстрирует работающие приложения и зависимости между ними.

Пакет vFabric Application Management Suite состоит из приложений AppDirector и Application Performance Manager. Он ориентирован в первую очередь на автоматизацию разработки и взаимодействия групп разработчиков приложений Java, работающих в облаке на основе vCloud Director. Пакет IT Business Management Suite построен на технологиях, полученных VMware в результате приобретения в июне этого года компании Digital Fuel. В него входят три модуля – IT Finance Manager, IT Service Level Manager и IT Vendor Manager, общая задача которых состоит в расширении возможностей ИТ-директоров котролировать затраты на ИТ-инфраструктуру.

«Ростелеком» вводит в эксплуатацию мобильный ЦОД

Комания «Ростелеком» ввела в коммерческую эксплуатацию первый в России мобильный центр обработки данных. Он состоит из отдельных модулей, созданных на базе стандартных 40-футовых морских контейнеров, и может быть оперативно развернут и подключен к каналам связи «Ростелекома». При этом МЦОД позволяет осуществлять хранение и обработку данных, а также предоставление широкого спектра услуг с высокой надежностью, отказоустойчивостью и производительностью.

МЦОД создан с использованием решений IBM в соответствии с международным стандартом TIA/EIA-942 и отвечает требованиям третьего уровня надежности. Подрядчиком по реализации этого проекта стала компания «Энвижн Груп». Мобильное исполнение ЦОД позволяет быстро и эффективно организовывать в нужном месте и затем при необходимости наращивать необходимые вычислительные мощности для предоставления широкому кругу клиентов полного спектра услуг, начиная от виртуального хостинга услуг и заканчивая сервисами электронного правительства.

Реальный бизнес в виртуальной реальности

Компания Avaya, глобальный поставщик решений и услуг в области бизнес-коммуникаций и делового взаимодействия, анонсировала в России решение web.alive – платформу для взаимодействия корпоративных пользователей в виртуальной среде. Она представляет собой подключаемый к браузеру модуль, который интегрируется с существующей корпоративной сетью, системой безопасности и бизнес-приложениями.

Платформа web.alive открывает новые возможности для общения, обучения и коммерции. Это решение позволяет собирать людей для совместной работы в виртуальном пространстве, созданном с помощью трехмерной графики и объемного звука. Участники могут общаться друг с другом в рамках одной сессии, при этом имея полный доступ ко всем бизнес-материалам. Использование решения web.alive обеспечивает эффект персонализированного присутствия и устраняет барьеры, связанные с необходимостью деловых поездок; «стирает расстояния» между головным офисом, менеджерами, работающими дистанционно, и предприятиями клиентов; помогает эффективно организовать дистанционное обучение и онлайн-продажи.

Как отмечают в Avaya, использование web.alive способствует налаживанию и укреплению отношений с клиентами, увеличению количества дистанционно работающих сотрудников и оптимизации коммуникационных процессов между сотрудниками и бизнес-партнерами.

Citrix раскрывает API онлайн-сервисов совместной работы

Компания Citrix опубликовала ряд API для трех своих сервисов совместной работы – GoToMeeting, GoToWebinar и GoToTraining. Для Citrix это необычно – как правило, компания не открывает свои продукты для интеграции с внешними системами. До этого Citrix предлагала только API для GoToMeeting избранным корпоративным заказчикам. Теперь же создан онлайн-портал, на котором после регистрации разработчики могут получить API ко всем трем сервисам. Предлагаются также соответствующая документация и форумы для обсуждения реализаций. В основном доступные API предназначены для обмена информацией с сервисами. Например, при работе с GoToWebinar внешнее приложение сможет извлекать данные о посетителях сервиса для нужд маркетинга. Пользователь GoToTraining сможет следить за своим прогрессом при помощи диаграмм, отображаемых внешней системой управления обучением.

Передача данных при помощи API выполняется по протоколу REST, аутентификация – посредством стандарта OAuth. Имеются API для создания встреч и вебинаров, однако для их использования понадобится учетная запись организатора в сервисах. В Citrix не исключают, что в дальнейшем количество API может быть расширено.

[http://www.zerobluetech.com/wp-content/uploads/2010/07/gotomeeting_icon.png ]

«Потребительский» сервис управления проектами

Компания Salesforce.com начала открытое бета-тестирование системы управления проектами Do, созданной на базе технологий купленной ею год назад компании Manymoon. Руководство Salesforce.com заявляет, что Do максимально близок к потребительским сервисам среди всех созданных компанией. Приложение действует в облаке Salesforce Heroku. Оно написано на HTML5 для простоты доступа с разных устройств, но есть и «родной» iOS-клиент. Manymoon – одно из самых популярных приложений в Google Apps Marketplace. Развиваться оно больше не будет, пользователям Salesforce.com предлагает переходить на Do. Базовая версия сервиса будет бесплатной, дополнительные возможности – платными. В целом Do по сравнению с Manymoon не изменился, сохранилась интеграция с Google Apps. Систему можно применять как для личных проектов, так и в организациях. Есть общие черты с ПО социального взаимодействия Salesforce Chatter, но Do больше подходит для малых групп, утверждают в Salesforce.com. Две эти системы вскоре будут тесно интегрированы. С помощью Do в Salesforce.com надеются переманить пользователей традиционных систем управления проектами наподобие Basecamp.

Oracle откроет код JavaFX

Oracle собирается выпустить в открытых кодах платформу функционально богатых интернет-приложений JavaFX, причем все проприетарные фрагменты ее кода будут заменены на открытые аналоги. Проект открытой JavaFX носит название JFX. В Oracle надеются, что платформа станет основой инструментария разработки клиентских Java-приложений следующего поколения, и ее планируется внести в OpenJDK, реализацию Java с открытым кодом. В Oracle собираются подать запрос Java Specification Request на внесение JFX в состав Java 9. Код различных компонентов JavaFX планируется раскрывать постепенно на протяжении предстоящих нескольких месяцев, начиная с элементов пользовательского интерфейса, за которыми последуют диаграммы.

JavaFX гораздо менее популярна, чем другие платформы функционально-богатых интернет-приложений, такие как Flash, Silverlight и HTML5. Oracle привлекла к своей платформе всеобщее внимание в октябре, продемонстрировав работу JavaFX на iPad вопреки отсутствию разрешения со стороны Apple на исполнение Java на iOS-устройствах.

IBM открыла код системы межмашинного обмена сообщениями

Корпорация IBM передала ассоциации Eclipse Foundation исходный код программного клиента Paho, предназначенного для обмена сообщениями между техническим оборудованием. Paho работает по протоколу Message Queuing Telemetry Transport, изначально созданному IBM и Eurotech в 1999 году для датчиков, следящих за конвейерными линиями. Позднее он получил применение во множестве других устройств, включая смартфоны. С недавнего времени Facebook пользуется MQTT в своей мобильной платформе обмена сообщениями. Paho написан в вариантах на Java и C. Передача клиента в ведение Eclipse приурочена к десятой годовщине открытия кода среды разработки Eclipse. IBM совместно с компаниями Eurotech и Sierra Wireless сформировала в Eclipse Foundation новую рабочую группу, которая займется стандартами и инструментами межмашинного обмена сообщениями.

В IBM рассчитывают, что со временем MQTT станет главным протоколом Интернета вещей. Как утверждают в IBM, MQTT обладает рядом преимуещств перед HTTP, так как следует модели публикации-подписки, не подразумевающей обязательного наличия соединения между сторонами, и у него меньше размер заголовков. Сам протокол MQTT является открытым.

Технологии Watson применят в медицинской аналитике

В новом программном пакете IBM Content and Preditive Analytics for Healthcare реализованы методы поиска и анализа неструктрированных данных, аналогичные тем, которые использует знаменитый суперкомпьютер IBM Watson. Предиктивный причинно-следственный анализ, работа с естественным языком с поддержкой медицинской терминологии позволят извлечь из большого объема клинических данных наиболее важные факты и взаимосвязи и предсказать вероятность различных исходов. В результате медики смогут найти более эффективные методы ведения пациентов с высоким риском, повысить безопасность лечения и создать новые модели возмещения расходов, говорится в заявлении компании.

Одной из проблем, решению которой может помочь новый пакет, является повторная госпитализация пациентов с хроническими заболеваниями. Данные исследования, опубликованного в New England Journal of Medicine, говорят о том, что каждую пятую такую госпитализацию можно было бы предотвратить, а общая стоимость их для США доходит до 17,4 млрд долл. Между тем бюджет программы Medicare составляет 102,6 млрд долл., а с 2012 года больницам с высоким уровнем повторных госпитализаций будут уменьшать размеры выплат.

На международной конференции Information on Demand в Лас Вегасе корпорация IBM представила новое подразделение Watson Solutions, созданное в сентябре для продвижения коммерческих решений на базе Watson. Первой отраслью, куда будут поставляться такие решения, станет здравоохранение.

[http://2.bp.blogspot.com/_8YphtkAHyDU/TTRS5IQXNWI/AAAAAAAAAbA/Nb2UavixeJA/s1600/watsonibm.jpg ] Фото: IBM

Китайский суперкомпьютер построен на процессорах местной разработки

В Китае построен первый суперкомпьютер, целиком состоящий из микропроцессоров, разработанных китайскими специалистами, таким образом, страна сделала серьезный шаг к избавлению от зависимости от западных технологий. Местная пресса назвала новую систему «символом мощи Китая». Система построена в Национальном суперкомпьютерном центре в Цзинане, сообщают китайские СМИ. В ней используется 8704 процессора Shenwei 1600, разработанные в шанхайском Национальным центре проектирования высокопроизводительных интегральных схем. Согласно тесту Linpack, теоретическое пиковое быстродействие суперкомпьютера — 1,07 PFLOPS, а усредненная производительность — 0,79 PFLOPS. В соответствии с этими показателями система могла бы занять 13-е место в списке самых мощных суперкомпьютеров мира.

New York Times сообщает, что англоязычное название суперкомпьютера — Sunway BlueLight MPP. Напомним, в ноябре прошлого года китайский суперкомпьютер Tianhe-1A ненадолго занял первое место в мире по быстродействию, но в нем использовались чипы Intel и nVidia. Сейчас у Китая 61 суперкомпьютер в списке Top500, а у США 255.

В ближайшие годы в Китае будет построено еще несколько суперкомпьютеров на процессорах собственной разработки.

РАН внедряет графические процессоры

Российская академия наук оснащает свой главный вычислительный центр – Межведомственный суперкомпьютерный центр – графическими процессорами nVidia Tesla. Более 30 институтов Российской академии наук уже используют GPU для ускорения научных открытий в сотнях исследовательских проектов. РАН увеличивает объем ресурсов для параллельных вычислений за счет интеграции 128 графических процессоров Tesla M2090 в существующие серверы суперкомпьютерного центра. Таким образом планируется удовлетворить растущий спрос на параллельные вычисления со стороны ученых, использующих приложения, которые ускоряются на GPU.

Графические процессоры Tesla лежат в основе трех из пяти самых быстрых суперкомпьютеров в мире, а также в основе самого мощного суперкомпьютера в России «Ломоносов», установленного в Московском государственном университете. По данным последней редакции рейтинга суперкомпьютеров Топ50, который составляет Межведомственный суперкомпьютерный центр РАН и Научно-исследовательский вычислительный центр МГУ, 7 из 50 ведущих российских суперкомпьютеров поддерживают графические ускорители. Интересно, что в общей сложности эти 7 систем обеспечивают вычислительные мощности, идентичные возможностям остальных 43 суперкомпьютеров из данного списка.

ARM обещает появление чипов размером с кровяную клетку

К 2020 году память смартфонов вырастет в 32 раза, скорость передачи данных — в 20 раз, а микропроцессор уменьшится до размера эритроцита, красной кровяной клетки, уверен директор по технологиям компании ARM Майк Маллер, который выступил с докладом на конференции ARM TechCon. По сообщению Маллера, в ARM уже разработали прототип микроскопического имплантируемого устройства для контроля глазного давления у больных глаукомой. Объем устройства составляет всего 1 куб. миллиметр, и при этом оно содержит микропроцессор, датчик и батарею. Если отказаться от двух последних компонентов и применить более развитый производственный процесс, который появится к 2020 году, то получится чип, по объему равный эритроциту, полагает Маллер.

По его прогнозу, продолжительность работы устройств от батареи к концу нынешнего десятилетия вырастет лишь вдвое. Прирост пропускной способности же будет обусловлен прежде всего ростом численности базовых станций и усовершенствованиями топологии сотовых сетей, считает директор по технологиям ARM. На конференции компания также анонсировала свою новую микропроцессорную архитектуру ARMv8, первую поддерживающую 64-разрядные инструкции.

[http://www.flickr.com/photos/armstills/5803876817/in/photostream] Фото: ARM

Автор «Искусства программирования» получил Медаль Фарадея

Дональд Кнут, автор книги «Искусство программирования», за свой вклад в развитие информатики получил медаль Фарадея — престижную награду, присуждаемую британским Институтом инженерного проектирования и технологий. Известно высказывание Билла Гейтса, который, будучи главой Microsoft, приглашал присылать ему резюме «всех, кто прочел все тома 'Искусства программирования'» — достаточно сложной для понимании книги.

Кнут стал 89-м лауреатом медали Фарадея, в списке которых отец ядерной физики Эрнест Резерфорд и академик Петр Капица. В своих трудах Кнут проповедует философию «грамотного программирования», когда программы изначально конструируют на естественном языке в порядке, определяемом логикой мысли, подобно литературному тексту или эссе, а не в соответствии с правилами, устанавливаемыми машиной. Кнут считает, что этот метод позволяет писать более совершенные программы, так как он обнажает неудачные логические и конструктивные решения. Медаль Фарадея пополнила список многочисленных наград Кнута, в их числе премия Тьюринга, Национальная научная медаль США, медаль Джона фон Неймана, премия Киото и др.

[http://www.medals-and-coins.com/pictures/24.jpg – обрезать коробку]

[врезка]

Большая конференция о Больших Данных

Международная конференция IBM Information on Demand 2011 стала самым масштабным мероприятием IBM в этом году, собрав более 10 тыс. участников. Ключевой темой форума были Большие Данные.

Стив Миллз, старший вице-президент IBM Software & Systems Group, поделился с аудиторией несколькими цифрами. Утверждается, что 90% накопленных на сегодняшний день цифровых данных созданы за последние два года, в ближайшее десятилетие их объем увеличится в 44 раза, и львиную долю будут составлять неструктурированные данные. Проблему усугубляет то, подчеркнул Миллз, что сегодня мы имеем дело не только с данными «в покое», но и во все большем количестве – с данными в динамике, которые поставляют различные сенсоры, системы мониторинга, RFID-устройства. Для них требуется анализ практически в реальном времени. Немудрено, что специалисты и руководители бизнеса в отстуствие эффективных инструментов работы с данными начинают в них буквально «захлебываться» – 60% участников традиционного международного опроса топ-менеджеров IBM сообщили, что количество накапливаемой в организации информации превышает возможности ее использования. Но при этом четверо из пяти респондентов IBM считают информацию жизненно необходимым источником для достижения конкурентных преимуществ.

IBM считает принципиальным органическое включение технологий Больших Данных в свою платформу управления информацией, которая объединяет весь спектр решений корпорации для работы с данными. Ядром платформы являются механизмы интеграции и централизованного контроля данных Infosphere Information Server. Теперь эта система поддерживает и интеграцию с двумя основными продуктами, которые IBM предлагает для Больших Данных, – Infosphere BigInsights и Infosphere Streams.

BigInsights – решение на базе открытого фреймворка для работы с Большими Данными Apache Hadoop, добавляющее к нему ряд средств, необходимых для управления данными в корпоративной среде, а также встроенные аналитические возможности, основанные на разработках IBM Researсh. Продукт Streams предназначен для анализа поступающих в реальном времени потоков структурированных и неструктурированных данных. На конференции были анонсированы новые версии решений Infosphere BigInsights 1.3 и Infosphere Streams 2.0, а также объявлено о доступности BigInsights в облачной среде IBM SmartCloud Enterprise. Как утверждают в корпорации, облачный вариант позволит получить работающую аналитическую функциональность BigInsights буквально за полчаса.

На форуме был представлен образовательный интернет-ресурс BigDataUniversity.com с разнообразными учебными материалами по Hadoop, BigInsights, технологиям управления базами данных и разработки с открытым кодом. Многие из них находятся в свободном доступе. Как сообщают в корпорации, в новом интернет-университете уже зарегистрировались более 8 тыс. студентов из различных стран, в том числе из России.

— Наталья Дубова

[]

[врезка]

Качество гарантируем?

«Сегодня создаются очень большие программы. И самое удивительное, что они работают». Такими словами академик, директор Института системного программирования РАН Виктор Иванников открыл научно-практическую конференцию по разработке программного обеспечения Software Engineering Conference Russia. На протяжении семи лет проведения конференции SECR тема качества ПО остается на ней одной из центральных. Причины очевидны. Иванников отметил, что количество ошибок в программных системах в среднем составляет десять на тысячу строк кода. Учитывая, что современное индустриальное ПО – это миллионы строк, такая статистика говорит о том, что большие системы переполнены ошибками, даже при условии, что в наиболее отлаженных из них число ошибок может снижаться до одной — трех на тысячу строк.

Поиск эффективных и научно обоснованных методов гарантии качества программных продуктов последнее время становится одним из наиболее активных направлений университетских исследований в области программной инженерии, постепенно находя отклик и в индустрии разработки ПО. Об этом говорил в своем выступлении профессор Юрий Карпов из Санкт-Петербургского политехнического университета. В университете занимаются изучением новых методов верификации программных систем. Верификация представляет собой формальное доказательство того, что программная система, описанная с помощью формальной модели, удовлетворяет формально определенным требованиям. Как рассказал Карпов, до недавнего времени основным методом верификации был дедуктивный. Его применение в практике разработки оказывалось невозможно: сложность доказательства правильности программы с его помощью в десятки раз превышает сложность самой программы.

Однако несколько лет назад был предложен более простой и эффективный метод model сhecking, позволяющий проводить верификацию динамических, то есть развивающихся во времени систем. Он добавляет к обычной логике высказываний, описывающей требования к поведению системы, параметр времени и проверяет на модели программы истинность формул этой так называемой темпоральной логики. Специальные исследования показали, что верификация по данному методу во многом раз превышает по эффективности традиционное тестирование, позволяя выявлять наиболее серьезные программные ошибки на максимально ранних стадиях процесса разработки. По словам Карпова, к включению этого метода в промышленную разработку все чаще обращаются ведущие вендоры ПО.

Еще одним центром исследования проблем верификации в Петербурге станет кафедра программной инженерии и верификации программ, созданная в Санкт-Петербургском государственном университете ИТ, механики и оптики, которую возглавил ученый с мировым именем, профессор Высшей политехнической школы в Цюрихе Бертран Мейер, также выступивший на конференции SECR.

— Наталья Дубова

[ http://www.osp.ru/aecms/?model=AECMSStoragePhotoreports&action=view-plot&id=2344 ]

[]

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF