[Открытые системы сегодня, № 3, 2016]

Nvidia представляет графический процессор с производительностью 12 TFLOPS

Графический процессор Nvidia Quadro P6000, который компания подготовила к выставке-конференции Siggraph, обладает производительностью 12 терафлопс, что на один терафлопс больше, чем у представленного чуть раньше Titan X. Оба процессора основаны на новой архитектуре Pascal, рассчитанной на 16-нанометровый техпроцесс.

Quadro P6000 предназначен для мощных рабочих станций, на которых ведутся обработка видео и работа с системами автоматизированного проектирования. В P6000 имеется 3840 процессорных ядер и 24 Гбайт памяти GDDR5X. Пропускная способность памяти составляет 432 Гбайт/с. Процессор снабжен четырьмя разъемами DisplayPort 1.4 и поддерживает разрешение до 4K с частотой обновления 120 Гц и до 5K с частотой 60 Гц. О цене и сроках выхода в продажу компания пока не сообщает. Nvidia объявляет также о подготовке к выпуску процессора Quadro P5000 с производительностью 8,9 TFLOPS. У него 2560 ядер и 16 Гбайт памяти GDDR5X с пропускной способностью 288 Гбайт/с.

Процессор Quadro P6000 сейчас занимает первое место по производительности среди процессоров Nvidia, но, по-видимому, вслед за ним компания представит и еще более мощную модель, предназначенную для высокопроизводительных вычислений.

https://www.idgns.com/idgns/article?id=3099846

HPE поглощает SGI

В Hewlett Packard Enterprise объявили о покупке компании SGI — эта сделка окончит семилетний период существования последней под данным наименованием после того, как Rackable Systems купила ставшую банкротом Silicon Graphics. Приобретение позволит HPE расширить свои возможности в области высокопроизводительных вычислений (HPC) и аналитики данных. По данным IDC, годовой объем рынка HPC — 11 млрд долл., а рост в следующие три года, по прогнозу, будет составлять 6–8%. В то же время тесно связанный с рынком HPC сегмент аналитики будет расти вдвое быстрее. В HPE отмечают растущую роль суперкомпьютеров в прогнозировании погоды, биологии, информационной безопасности и распознавании мошенничеств. SGI выпускает серверы, системы хранения данных и программные продукты, но жемчужиной продуктового ассортимента компании в последнее время стали системы линейки UV, выполняющие вычисления в памяти. В феврале HPE заключила с SGI соглашение о поставках системы на основе UV 300H — суперкомпьютера SGI, спроектированного специально для SAP HANA. Новый восьмипроцессорный сервер HPE заполнил нишу в линейке между ProLiant DL580 Gen9 и Integrity Superdome X. После совершения сделки, планируемого не позднее января 2017 года, SGI войдет в состав подразделения HPE Data Center Infrastructure Group.

https://6lli539m39y3hpkelqsm3c2fg-wpengine.netdna-ssl.com/wp-content/uploads/2016/03/SGI-UV-3000-graphic.png

Новая MRAM похоронит флеш-память

Компании IBM и Samsung объявили о создании технологического процесса производства энергонезависимой памяти, которая работает в 100 тыс. раз быстрее флеш-памяти NAND и имеет практически неограниченный ресурс циклов чтения и записи. Компании разрабатывают магниторезистивную (MRAM) память следующего поколения с использованием технологии STT (spin-transfer torque), что позволит создавать более эффективные микросхемы памяти небольшой емкости для датчиков Интернета вещей, носимых устройств и мобильной техники, где сейчас используется флеш-память NAND. Если флеш-памяти NAND для записи данных требуется одна миллисекунда, то у MRAM эта процедура занимает всего 10 наносекунд. В обозримом будущем память STT MRAM вряд ли придет на смену микросхемам DRAM, но встроенную флеш-память она вполне способна потеснить.

https://www.idgns.com/idgns/image?id=100671291

General Electric запустит платформу Промышленного интернета в облаке

На конференции Microsoft Worldwide Partner Conference объявлено, что платформа GE Predix подготовлена к развертыванию в облаке Microsoft Azure. Таким образом, в системе Azure появился еще один сервис для создания промышленных приложений, способных работать с Интернетом вещей. Планы GE и Microsoft не ограничиваются поддержкой PaaS-платформы Predix. Предполагается реализовать ряд возможностей ее интеграции с другими сервисами Azure, в том числе с IoT Suite и Cortana Analytics Suite. Предусмотрена и интеграция с облачным офисным пакетом Office 365, CRM-системой Dynamics 365 и аналитическим пакетом Power BI.

Microsoft стремится заключить как можно больше партнерских соглашений в сфере облачных приложений. Корпорация уже работает с SAP, Red Hat и рядом других провайдеров облачных сервисов. Компаниям, особенно из промышленной сферы, следует активнее заниматься цифровой трансформацией своего бизнеса, заявил генеральный директор GE Джефф Иммельт. В противном случае они отстанут в области преобразований, идущих в мире.

В России нет полноценного Интернета вещей

Проведенное J’son & Partners Consulting исследование показало, что более 99% используемых в распределенных системах телеметрии устройств подключены не к промышленным платформам Интернета вещей, а к закрытым проприетарным аппаратно-программным комплексам с ограниченным функционалом. Фактически это диспетчерские системы класса «машина-человек», уточнили аналитики. Другая особенность рассматриваемого рынка состоит в его выраженной фрагментарности: единого рынка распределенных телеметрических услуг и решений в России не существует — есть набор практически не связанных между собой рынков, которые так или иначе можно отнести к исследуемой области. Основными двигателями роста количества установленных и подключенных в распределенные системы телеметрии устройств в России являются обязательные к исполнению государственные программы, отмечается в исследовании. Так, в 2015 году факторами роста выступили внедрение системы «Платон» на транспорте, активизация M2M-программ в ЖКХ и начало действия программы по подключению кассовых аппаратов к ЕГАИС.

В России создан блокчейн-консорциум

Крупнейшие компании финансового сектора России объединяются для совместного исследования и применения технологий блокчейна. Свое намерение участвовать в консорциуме подтвердили компании Qiwi, Accenture, «Бинбанк», «МДМ банк», банк «Открытие» и «Тинькофф-банк». Деятельность консорциума будет сосредоточена на создании и внедрении наиболее перспективных технологических решений в сферу финансовых услуг. Участники консорциума выделяют технологическую, регуляторную, практическую и коммуникационную задачи. В частности, участники займутся проведением совместных разработок и созданием тестовой площадки блокчейн-прототипов, стандартизацией технологий и созданием точек доступа к технологиям для всех участников рынка. Кроме того, важными аспектами деятельности консорциума будут технологическая гармонизация российских блокчейн-разработок с зарубежными, создание единой коммуникационной площадки, открытой для участников и регулятора, повышение уровня знаний и доверия общества к финансовым инструментам на основе блокчейна.

IBM тестирует облачный блокчейн

Корпорация IBM приступила к тестированию бета-версии IBM Blockchain с выделенной инфраструктурой для каждого клиента. До сих пор облачный сервис предлагался только разработчикам, желавшим поэкспериментировать с технологией блокчейна, и размещался в облаке с множественной арендой и инфраструктурой, которая совместно использовалась сотнями блокчейнов. Теперь клиенты могут оформить заявку на портале IBM Bluemix. Одним из таких клиентов стала компания Everledger, желающая заменить бумажные сертификаты подлинности товаров, обладающих высокой стоимостью, на цифровые. Everledger работает на рынке сертификации алмазов, наиболее ценные из которых имеют выгравированный на них идентификационный код. Непосредственно сертификацией компания не занимается, но предлагает защищенный журнал, связывающий идентификационные коды с сертификатами, а также с обращениями в полицию и страховую компанию в случае кражи. В настоящее время Everledger размещает информацию об операциях с алмазами в общедоступном блокчейне биткойна, но в перспективе на смену ему может прийти частный блокчейн.

https://hsto.org/getpro/habr/post_images/ad1/ea0/a80/ad1ea0a80e739eb32338ff1ae3fd48c4.jpg

Открытый проект блокчейн-платформы возглавил главный разработчик Apache

В Apache Software Foundation назначили исполнительным директором проекта Hyperledger Брайана Белендорфа, основного разработчика веб-сервера Apache.

Как ожидается, это придаст новый импульс стартовавшему в конце 2015 года проекту, задача которого — создание открытой платформы для распределенных транзакций, которая будет прозрачной, децентрализованной и предназначенной для коллективного использования. В Apache Software Foundation рассчитывают на то, что Hyperledger станет открытым стандартом для разработки бизнес-приложений для самых разных отраслей.

Белендорф пообещал использовать весь свой опыт в области создания свободного ПО, чтобы сформировать вокруг проекта Hyperledger сообщество, целью которого станет продвижение блокчейн-решения на корпоративный рынок. В проекте участвуют такие компании, как IBM, Intel, Cisco Systems, VMware и Fujitsu.

Технология блокчейна считается весьма многообещающей. По мнению Белендорфа, сейчас нет недостатка в интересных идеях, направленных на то, чтобы сделать блокчейн частью стека интернет-технологий нового поколения. Роль проекта Hyperledger состоит в том, чтобы этот стек благодаря надежной, модульной платформе, доступной на условиях публичной лицензии Apache, стал основой широкого спектра приложений делового назначения.

http://zdnet1.cbsistatic.com/hub/i/2016/05/19/66289af4-b34d-4f61-9217-1ec9604b843e/42eb1c2c5059b685ab86ea21a898b377/brian-behlendorf.jpg

Источник: Linux Foundation

Облака — невозможно отказаться

Аналитики Gartner прогнозируют, что к 2020 году политика отказа от использования облаков на предприятиях станет такой же немыслимой, какой сегодня представляется политика отказа от Интернета. Если в предыдущие годы многие крупные поставщики программного обеспечения остерегались облаков, то сегодня облачная доставка ПО становится либо главной, либо единственной формой. Сейчас основная часть инноваций при разработке ПО распространяется прежде всего на облачные функции, а на локальные варианты новшества переносятся позднее. Аналитики убеждены, что облако станет стандартной платформой для развертывания ПО, в том числе разрабатываемого на заказ. В Gartner также уверены, что наиболее широко из всех видов облаков будут использоваться гибридные. Кроме того, аналитики прогнозируют, что к 2019 году больше 30% инвестиций в создание нового ПО, совершаемых 100 крупнейшими разработчиками, пойдет на продукты, предназначенные только для облаков различных видов. Согласно еще одному прогнозу, к 2020 году поставщики инфраструктуры в виде сервиса (IaaS) и платформ в виде сервиса (PaaS) будут продавать больше вычислительной мощности, чем будет добавляться в корпоративных центрах обработки данных. С 2011 года оборот рынка IaaS увеличивался больше чем на 40% в год, а до 2019 года включительно рост будет составлять 25%, предсказывают в Gartner. С ростом числа организаций, применяющих бимодальные ИТ и облачные сервисы, программно-конфигурируемые ЦОД станут для предприятий менее важными, чем обретение развитых возможностей управления многочисленными облачными провайдерами, уверены в Gartner. Как полагают аналитики, большинство предприятий, кроме самых малых, сохранят локальные ЦОД, но, так как большая часть вычислительной мощности будет предоставляться провайдерами IaaS, одной из важнейших станет способность управлять сложным сочетанием локальных, внешних, облачных и необлачных архитектур.

Новые серверы HPE на Itanium

Компания Hewlett Packard Enterprise планирует выпуск серверов на базе процессоров Intel Itanium семейства Kittson на середину 2017 года. Хотя работа над переносом операционных систем HP-UX и OpenVMS на платформу x86 уже идет, стоимость работы с некоторыми приложениями на серверах с процессорами Kittson может быть ниже. Благодаря повышенной производительности процессоров для работы требуется меньше ядер, а следовательно, меньше лицензий на приложения. Многие компании — в частности, Oracle — взимают плату за лицензии по числу ядер. Первые сообщения о работе над Kittson появились еще в 2011 году. Предполагалось, что процессоры этого семейства будут совместимы по разъемам с семейством Xeon, но позднее Intel объявила о сохранении совместимости с предыдущими моделями Itanium. В HPE выпуск серверов с процессорами Itanium и поддержку системы HP-UX планируют продолжать до 2025 года.

РСК наращивает вычислительную плотность кластеров

Группа компаний «РСК» продемонстрировала на форуме ISC’16 во Франкфурте новое поколение кластерного решения «РСК Торнадо» на базе процессора Intel Xeon Phi (Knights Landing). Новое решение с прямым жидкостным охлаждением обладает улучшенными показателями компактности и вычислительной плотности, высоким уровнем энергоэффективности, а также обеспечивает возможность стабильной работы вычислительных узлов в режиме «горячая вода». На выставке были продемонстрированы вычислительный узел «РСК Торнадо» на базе многоядерного процессора Intel Xeon Phi 7250 на новой серверной плате Intel S7200AP, а также коммутаторы и адаптеры для построения высокоскоростных межузловых соединений Intel Omni-Path и Mellanox EDR InfiniBand.

http://www.rscgroup.ru/sites/default/files/field/image/img_699.png

«Яндекс» открывает исходный код аналитической СУБД ClickHouse

«Яндекс» решил опубликовать исходный код ClickHouse — распределенной системы управления базами данных, разработанной для сервиса веб-аналитики «Яндекс.Метрика», сообщили в компании. Технология не ограничивается аналитикой сайтов и приложений и может быть использована в телекоммуникациях, рекламе, онлайн-торговле, для обработки данных мониторинга и телеметрии, а также для решения задач информационной безопасности, рассчитывают в «Яндексе». ClickHouse хранит и быстро обрабатывает большие объемы информации для создания аналитических отчетов. Система масштабируется и позволяет хранить записи о триллионах событий. Как поясняют в компании, система опробована на задачах «высоконагруженных сервисов» «Яндекса»: ClickHouse применяется не только в «Метрике», где используется для хранения всех данных для отчетов, но и в «Маркете», «Почте», «Директе», «Вебмастере», для бизнес-аналитики и в мониторинге инфраструктуры. Интерес к ClickHouse уже проявила «Почта России», использующая для разных типов задач инструменты на основе открытого кода. Так, для хранения и обработки данных применяются Hadoop, Cassandra и PostgreSQL. «Почта России» планирует использовать ClickHouse как один из компонентов разработки и формирования онлайн-отчетности.

IBS выпустила серию «Скала-СР» для высоконагруженных СУБД и аналитических систем

IBS представила программно-аппаратные комплексы «Скала-СР» для решения специализированных задач. Они продолжают серию вычислительных платформ, представленную год назад. Среди разработанных решений — кластеры серверов «Скала-СР/Postgres Pro» и «Скала-СР/Oracle DB», предназначенные для высоконагруженных СУБД, а также гиперконвергентный комплекс «Скала СР/Аналитика» для аналитических систем, обрабатывающих данные в оперативной памяти. Платформа «Скала» — это инжиниринговый продукт компании IBS и ее партнеров: Depo Computers, «Росплатформы», Mellanox и Raidix. Она представляет собой полностью сконфигурированную гиперконвергентную систему и создана на основе отечественных решений. Продукт защищен комплексом средств ИБ и готов к сертификации ФСТЭК. Как утверждают разработчики, платформа не уступает иностранным аналогам по производительности, являясь при этом на 40% доступнее по цене.

http://www.osp.ru/aecms/?model=AECMSStoragePhotoreports&action=view-plot&id=6552

Источник: IBS

Open vSwitch стал проектом Linux Foundation

Разработчики программного коммутатора с открытым кодом Open vSwitch (OVS) объявили о том, что он переходит под эгиду Linux Foundation, некоммерческого консорциума по развитию Linux. Инициаторы миграции проекта рассчитывают, что теперь доступ к нему смогут получить больше разработчиков. OVS предназначен для выполнения в гипервизорах и на системах с виртуальными машинами. Коммутатор может работать в Linux, FreeBSD и Hyper-V. Он широко применяется для виртуализации сетевых функций и лидирует по частоте использования в качестве сетевого уровня в развертываниях OpenStack, сообщают в Linux Foundation. С переходом под эгиду организации техническая схема руководства проектом останется без изменений. В разработке OVS принимают участие специалисты компаний Cisco, Ericsson, Huawei, HP, IBM, Intel, Red Hat и VMware. Недавно в Linux Foundation также был переведен OpenSwitch, став первым проектом полноценной сетевой ОС, развивающимся в рамках консорциума. В отличие от OVS, OpenSwitch предназначен преимущественно для работы на аппаратных коммутаторах top-of-rack.

[https://media.licdn.com/mpr/mpr/AAEAAQAAAAAAAAbBAAAAJDg4ZTg0MjYxLWFjOGUtNDMyMC05MWIzLTdkM2I3NWIzZTliZA.png]

«ВымпелКом» переходит на Tarantool

СУБД Tarantool, разработанная в Mail.Ru Group, начинает внедряться в компании «ВымпелКом» как платформа онлайн-обработки данных. Ожидается, что использование Tarantool позволит ускорить доступ к данным биллинга, улучшить интерактивность услуг для абонентов, а также формировать для абонентов предложения различных сервисов в зависимости от их персонального профиля потребления. На базе Tarantool специально для «ВымпелКома» разработаны платформа виртуализации данных и ряд приложений для нее. К особенностям платформы можно отнести наличие подсистем версионности данных и контроля нагрузок на их источники. Такие характеристики позволяют оптимизировать работу не только с традиционными базами данных, но и с источниками, имеющими самые разные интерфейсы. В компании ожидают, что высокая скорость обработки транзакций и удобство разработки Tarantool позволят в разы снизить издержки на покупку серверов и лицензий и сократить сроки внедрения нового функционала обработки данных.

СУБД Tarantool сочетает высокую скорость обработки запросов, характерную для систем кэширования (например, Memcached и Redis), c надежностью таких промышленных решений, как Oracle, MySQL и PostgreSQL. Она распространяется на условиях публичной лицензии BSD. Согласно результатам внутреннего тестирования Mail.Ru Group, производительность СУБД составляет миллион транзакций в секунду на одном ядре простейшего сервера массовой архитектуры. Система внедрена в ряде крупных отечественных и международных компаний, в том числе в Badoo, Avito, Qiwi и Wallarm.

Работать с SQL как с Excel

Сотрудники лаборатории искусственного интеллекта МТИ создали приложение, радикально упрощающее разработку интерфейсов для корпоративных баз данных. Обычно для этого нанимают программистов соответствующего профиля, и сложные запросы на SQL им приходится составлять вручную. Новая система, получившая название Sieuferd, выглядит подобно Excel, и, как обещают разработчики, в ней разберется любой, кто хорошо знает эту электронную таблицу. Запросы и отчеты в Sieuferd составляются с помощью выпадающих меню. Графический интерфейс позволяет переносить в систему данные из многих источников, сортировать и фильтровать их, группировать с помощью алгебраических функций, скрывать ненужные столбцы и строки и т. д. Основное меню имеет всего 17 позиций, большинство из которых покажутся знакомыми пользователям электронных таблиц. В докладе, посвященном системе, ее создатели доказывают, что этих несложных функций достаточно, чтобы составить любой возможный запрос, отвечающий стандарту SQL-92.

http://news.mit.edu/2016/spreadsheet-databases-0708

Источник: MIT

MongoDB в облаке

Популярная NoSQL СУБД с открытым кодом MongoDB выпущена в виде управляемого облачного сервиса с почасовой оплатой. Сервис, получивший название Atlas, заботится о резервировании ресурсов, конфигурировании, установке заплат, обновлениях, резервном копировании и восстановлении после сбоев, позволяя разработчикам сосредоточиться на создании приложений. На сегодня экземпляры Atlas доступны в Amazon Web Services, позднее они также будут предлагаться в облаках Microsoft Azure и Google Cloud Platform. Новый кластер в облаке можно построить меньше чем за 10 минут — надо выбрать имя, местонахождение и размер экземпляра, желаемый размер памяти и пространства хранения, а также количество узлов для тиражирования (от 3 до 7). Поддерживается создание томов с шифрованием и сегментированных (sharded) кластеров.

http://magora-systems.ru/media/mongodb.jpg

Сервис Google понимает человеческий язык

Компания Google представила новый сервис Cloud Natural Language API, который должен помочь разработчикам в написании приложений, понимающих язык человека. Средства обработки естественного языка позволят разрабатывать приложения, анализирующие характер взаимодействия между людьми, а это, в свою очередь, станет ключом к созданию интеллектуальных цифровых помощников и роботов, способных общаться на естественном языке. В основу API положены те же исследования, что делались в Google при создании синтаксического анализатора английского текста Parsey McParseface. Общедоступная бета-версия нового интерфейса API была представлена вместе с API Speech, преобразующим записанную речь в текст. Объединение двух API позволит разрабатывать приложения, понимающие речь, а Google сможет укрепить свои позиции в борьбе с Microsoft, Amazon и IBM, которые также запускают интеллектуальные сервисы на своих общедоступных облачных платформах.

Microsoft улучшает средства разработки на Node.js

Корпорация Microsoft обновила инструментарий с открытым кодом Node.js Tools for Visual Studio, выпустив его в версии 1.2. Обновление рассчитано на использование с Visual Studio 2015. Важным отличием Node.js Tools 1.2 стали более быстрая работа инструментария с технологией автозавершения кода IntelliSense и поддержка в последней пространства имен стандарта ECMAScript 6, основы JavaScript. Как сообщают в Microsoft, IntelliSense работает с популярными фреймворками Node.js, в том числе Commander, Express, jQuery и Knockout. В Node.js Tools 1.2 также повышены стабильность и быстродействие; снижено число ошибок переполнения памяти, ускорена загрузка проектов; усовершенствован отладчик, устранена проблема с контрольными точками, на которую жаловались пользователи, и другие; улучшены средства модульного тестирования.

Планы Oracle для виртуальной машины Java

На конференции Oracle JVM Language были обнародованы планы по дальнейшему развитию виртуальной машины Java, которая должна оставаться «полиглотом»: возможно, со временем, помимо нынешних Scala и Groovy, появятся компиляторы в байт-код JVM даже для Си и C++. При этом в Oracle намерены сохранить обратную совместимость, чтобы на JVM могли работать «пыльные JAR-файлы тридцатилетней давности». Упомянуты были также усовершенствования в области «Java на Java», помогающие развиваться проектам вроде Graal, в рамках которого функциональность виртуальной машины экспонируется через Java API, что позволяет на самом Java писать компиляторы и среды выполнения. Родственный проект — Panama, он направлен на обеспечение интероперабельности Java и C++. Доработки в области масштабируемости виртуальной машины создадут лучшие условия для параллельного выполнения независимых микросервисов под ее управлением — «от единиц до миллионов», как объясняют в Oracle. Поддержка микросервисов реализуется корпорацией и в платформе Java EE. Наряду с этим планируются усовершенствования системы типов, поддерживаемых JVM, и доработки, направленные на повышение производительности с использованием возможностей самых современных процессоров.

Популярность ассемблера растет благодаря Интернету вещей

Низкоуровневый язык ассемблера в последние годы уступил свои позиции высокоуровневым языкам, но благодаря устройствам Интернета вещей, на которых выполняется только код ассемблера, его популярность вновь начала расти. Согласно индексу Tiobe, оценивающему популярность языков программирования на основе количества поисковых запросов в Интернете, ассемблер в июле во второй раз в этом году вернулся на десятое место. Впрочем, аналитики полагают, что вряд ли он задержится в десятке надолго. В ближайшие месяцы его вполне могут потеснить Ruby, R или MatLab. В альтернативном индексе PyPL ассемблер занимает 18-е место. Если в формуле Tiobe учитывается множество поисковых ресурсов, то PyPL анализирует только поиск учебных материалов по языку в Google. Полностью первая десятка Tiobe выглядит следующим образом: Java (19,8%), C (12,2%), C++ (6,3%), Python (4,2%), C# (3,9%), PHP (3,3%), JavaScript (2,6%), Visual Basic.Net (2,5%), Perl (2,4%), ассемблер (2,3%). А в первую десятку индекса PyPL вошли: Java (23,8%), Python (13%), PHP (10,5%), C# (9%), JavaScript (7,7%), C++ (7,2%), C (7%), Objective-C (4,5%), R (3,2%) и Swift (3%).

Специалисты по программам с открытым кодом востребованы на рынке

65% менеджеров по подбору персонала, участвовавших в опросе, проведенном организацией Linux Foundation и кадровым агентством Dice, намереваются в ближайшие полгода уделять больше внимания найму сотрудников для работы с программами с открытым кодом, нежели для других направлений бизнеса. 79% менеджеров сообщили, что уже принимают различные меры для удержания таких специалистов на работе. Зарплаты специалистов по программам с открытым кодом остаются высокими, но, как и для многих других специалистов в ИТ, не они являются решающим фактором в выборе места работы. 31% опрошенных главной называют возможность работать над интересными проектами, 18% — быть на переднем крае технологий, а 17% — участвовать в деятельности международного сообщества. Только 2% опрошенных лучшей стороной своей работы считают деньги. Среди специалистов по программам с открытым кодом наиболее востребованными являются разработчики. 74% опрошенных менеджеров указали, что их компания ищет разработчиков. 58% отметили потребность в специалистах, знакомых с методикой DevOps, 51% — с облачными технологиями OpenStack, CloudStack и другими, 21% — с сетевыми технологиями.

Начинается публичное обсуждение проекта национального стандарта по эксплуатации ЦОД

Федеральное агентство по техническому регулированию и метрологии (Росстандарт) опубликовало уведомление о разработке проекта национального стандарта «Центр обработки данных. Инженерная инфраструктура. Операционная модель эксплуатации. Спецификация». Проект национального стандарта был подготовлен рабочей группой, созданной внутри Ассоциации участников отрасли ЦОД, и продолжает курс на создание национальной базы стандартизации для отрасли центров обработки данных, сообщили в ассоциации. Публичное обсуждение проекта национального стандарта «Центр обработки данных. Инженерная инфраструктура. Операционная модель эксплуатации. Спецификация» продолжится два месяца. Все замечания и предложения, поступившие от заинтересованных лиц за это время, будут сведены разработчиком, проанализированы и учтены при доработке проекта стандарта. Доработанный проект стандарта будет повторно вынесен на публичное обсуждение в сроки, определенные разработчиком.

В России появится квантовая сеть

Ученые из Казанского квантового центра Казанского национального исследовательского технического университета и ИТМО запустили пилотный проект, призванный заложить технологическую основу для создания масштабируемой национальной инфраструктуры квантовых коммуникаций. Квантовая сеть полностью основана на отечественных разработках и по техническим параметрам не уступает передовым зарубежным аналогам, а по ряду характеристик превосходит их. Системы квантовых коммуникаций лягут в основу инфраструктуры сетевой безопасности нового поколения, которая будет востребована всеми субъектами, использующими конфиденциальный обмен информацией: финансовыми структурами, государственными ведомствами, промышленными предприятиями. До сих пор в России в городских условиях действовали лишь линии квантовой связи, организованные по принципу «точка-точка». В рамках проекта Казанской квантовой сети впервые в российской практике квантовым каналом будут объединены четыре узла, расположенные на расстоянии 30–40 км друг от друга. На данный момент в Казани запущен первый участок сети, соединивший два корпуса КНИТУ-КАИ. В пилотном сегменте достигнута скорость генерации просеянных квантовых последовательностей 117 Кбит/c на линии протяженностью 2,5 км — на порядок быстрее, чем в европейских сетевых проектах в области квантовой связи. В ходе экспериментов была успешно продемонстрирована передача квантовых битов в оптическом канале с потерями 20 дБ, что эквивалентно расстоянию 100 км. Казанский проект реализуется на действующей оптоволоконной линии с использованием телекоммуникационной инфраструктуры оператора «Таттелеком».

Наночастицы-«жонглеры»

Физики из Университета ИТМО и МФТИ предложили метод управления светом с помощью антенн из кремниевых наночастиц. На основе наноантенн можно создавать миниатюрные чипы для сверхбыстрой обработки информации в оптических линиях связи и оптических компьютерах будущего, говорится в статье, опубликованной в журнале ACS Photonics. Скорость передачи информации по оптоволокну достигает сотен гигабит в секунду, а современная электроника может обрабатывать информацию только на скоростях порядка десятков гигабит в секунду. Чтобы создать устройства, которые обрабатывают оптический сигнал быстрее, физики предложили использовать кремниевые наноантенны — миниатюрные устройства для приема и передачи информации в виде электромагнитных волн. Также найден способ быстро перенастраивать такие антенны с помощью падающего на них излучения.

Аналоговый компьютер смоделирует живые организмы

Головной мозг человека действует по принципу аналогового компьютера — хотя он и работает с дискретными сигналами, информация в цифровой форме не хранится. Ученые МТИ и Дартмутского колледжа объявили о разработке компилятора для аналоговых компьютеров — программы, транслирующей инструкции на высокоуровневом языке в описания соединений на схеме аналогового компьютера. Эта работа позволяет проложить путь к высокоточному аналоговому моделированию отдельных органов или даже целых организмов. На вход компилятору подаются дифференциальные уравнения, применяемые биологами для описания динамики происходящего в живых клетках. На выходе программа генерирует схемы протекания электрического тока через специально разработанный аналоговый чип. В принципе, отмечают авторы, компилятор может работать с любым программируемым аналоговым устройством. При выполнении простейшего теста из четырех уравнений компилятор сгенерировал аналоговую схему меньше чем за минуту, а на 75 уравнений у него ушло около часа. Разработка такой же схемы вручную заняла бы гораздо больше времени. Цитоморфные аналоговые схемы всего из нескольких транзисторов способны решать сложнейшие дифференциальные уравнения, тогда как электронным схемам для того же понадобились бы миллиарды транзисторов.

[http://news.mit.edu/2016/analog-computing-organs-organisms-0620]

Источник: MIT

Компьютер учится предсказывать будущее на видео

В Лаборатории компьютерной науки и искусственного интеллекта МТИ работают над алгоритмами прогнозного зрения — по сути, изучают способность «заглядывать в будущее» на несколько секунд вперед. На видеозаписях YouTube, а также сериалах «Офис» и «Отчаянные домохозяйки» нейронную сеть обучали предсказывать, что сделают персонажи при встрече: обнимутся, пожмут руки или поприветствуют друг друга ударом ладоней. Еще одна способность, которой пытаются обучить свою систему ученые, — прогнозировать, какие объекты могут появиться на видеозаписи через пять секунд. Когда компьютеру показывали людей за секунду до выполнения одного из четырех приветственных действий, алгоритм верно предсказывал продолжение в 43% случаев. Для сравнения, люди выполняли то же задание с долей успеха 71%. Но исследователи уверены, что дополнительное обучение позволит улучшить способности компьютера. Возможные применения разработки — навигационные системы роботов, вспомогательная техника для аварийно-спасательных служб и компьютеризированные очки, подсказывающие действия в разных ситуациях.

Искусственный интеллект Google будет спасать жизни

Успех программы AlphaGo в игре го, сумевшей выиграть у чемпиона по го из Южной Кореи четыре партии из пяти, многими был воспринят как окончательный приговор доминированию человеческого интеллекта, но исследователь из Google Дэвид Сильвер не столь категоричен и предлагает вместо этого обратить внимание на потенциальные преимущества новой технологии. Будучи одним из ведущих архитекторов системы AlphaGo, Сильвер убежден в том, что технологии искусственного интеллекта должны повысить эффективность системы здравоохранения. Игра го, где число возможных комбинаций на доске превышает количество атомов во Вселенной, долгое время считалась самым сложным вызовом для исследователей в области искусственного интеллекта. Сначала AlphaGo обучалась на партиях экспертов, а затем миллионы раз сыграла сама с собой. В отличие от системы IBM DeepBlue, которая создавалась специально для того, чтобы победить Гарри Каспарова, AlphaGo использует нейронные сети и общие методы глубинного обучения, которое со временем трансформируется в самообучение. В начале текущего года в подразделении Google DeepMind была сформирована медицинская группа, и теперь совместно со специалистами Moorfields Eye Hospital она сосредоточится на применении технологий машинного обучения и других наработок AlphaGo в диагностике и лечении диабетической ретинопатии и возрастной макулярной дегенерации.

Облачные вычисления замедляют рост спроса на электроэнергию

За период с 2005 по 2010 год потребление энергии центрами обработки данных выросло на 24%, но с переходом на виртуализацию, облачные вычисления и оптимизированное управление ситуация меняется. По прогнозу авторов исследования, проведенного в Национальной лаборатории им. Лоуренса в Беркли, с 2014 по 2020 год потребление энергии вырастет лишь на 4%, несмотря на резкое увеличение потребности в вычислительных ресурсах. По данным исследования, общий расход электричества в дата-центрах США составил в 2014 году 70 млрд кВт*ч — 1,8% от общего потребления энергии в стране. Но, судя по нынешним тенденциям, в следующие четыре года этот рост почти остановится. С 2000 по 2005 год поставки серверов увеличивались каждый год на 15%, общее их количество в ЦОД за этот период почти удвоилось. В 2005–2010 годах ежегодный прирост уменьшился до 5%, в том числе из-за экономических проблем, а сейчас этот показатель — 3%, и, по прогнозу, он сохранится на этом уровне до 2021 года. Снижение обусловлено повышением энергоэффективности и более оптимальной загрузкой за счет виртуализации и перехода на облачные вычисления, в том числе благодаря сосредоточению задач в гипермасштабных ЦОД от 37 тыс. м2. В Google между тем настроены еще более оптимистично и считают, что общий расход электроэнергии к 2020 году снизится.

[http://core0.staticworld.net/images/article/2015/07/fort-worth-data-center-rendering-100595415-orig.jpg]

Источник: Facebook

Путин поручил правительству заняться «туманными вычислениями»

Администрация президента направила Минкомсвязи, Минпромторгу, «Ростелекому» и Агентству стратегических инициатив письмо за подписью президента РФ Владимира Путина, содержащее поручение проработать внедрение «туманных вычислений», сообщила газета «КоммерсантЪ». Результаты выполнения поручения нужно представить в октябре. По сведениям газеты, Минпромторг уже обратился за консультациями в несколько отечественных ИТ-компаний, в частности в «Т-Платформы». «КоммерсантЪ» со ссылкой на свой источник сообщает, что инициатива идет от «Ростелекома» и АСИ, которые донесли ее до администрации президента, где эту идею поддержали. Инфраструктура так называемых туманных вычислений (fog computing) позволяет организовать обработку данных на конечных устройствах в сети, там же, где они собираются, а не в облаке. Как указывают эксперты, передача огромного объема сырых данных в облако может стать узким местом для решений Интернета вещей, подразумевающих возможность для объектов взаимодействовать между собой, принимая решения в реальном времени. По данным IDC, объем рынка Интернета вещей в 2015 году составил 2,7 млрд долл., а к 2020 году он может вырасти до 7 млрд. По прогнозам, количество подключенных «вещей» к этому времени составит 28 млрд.

На SDN переведут сегмент сети «Ростелекома» в одном из российских регионов

Центр прикладных исследований компьютерных сетей и компания «Сервионика» (группа «Ай-Теко») заключили договор о стратегическом партнерстве с целью продвижения отечественных решений SDN и NFV. Сотрудничество компаний начинается с пилотного проекта в «Ростелекоме»: на технологии SDN планируется перевести сегмент региональной сети в одном из регионов России. Особенностью решения станет широкое применение отечественных разработок, в их числе — созданные ЦПИКС программный коммутатор OpenFlow и SDN-контроллер RunOS, под управлением которого будет находиться весь сегмент сети. При этом будет обрабатываться реальный трафик более 11 тыс. абонентов. Сеть оператора в пилотном регионе должна заработать на новых технологиях уже с сентября, а завершение проекта ожидается в четвертом квартале 2016 года. В ходе проекта ЦПИКС отвечает за разработку стратегии внедрения SDN-решений в сеть оператора, предоставляет техническую поддержку второго уровня и проводит обучение специалистов «Сервионики», в задачи которых будут входить подготовка и инсталляция компонентов аппаратной платформы и техническая поддержка первого уровня. SDN (Software Defined Networking — «программно-конфигурируемые сети») и NFV (Network Function Virtualization — «виртуализация сетевых функций») — новое поколение архитектурных решений, более гибких и ориентированных на поддержку облачных технологий. Использование этих инструментов позволяет снижать затраты на развитие сети, что критически важно для эффективности бизнеса операторов связи.

http://www.osp.ru/aecms/?model=AECMSStoragePhotoreports&action=view-photoreport&id=13133554

[врезка]

Технологии для Больших Данных

В Москве прошла конференция «Технологии Больших Данных», организованная издательством «Открытые системы» и посвященная решениям, предлагаемым сегодня для обработки больших массивов данных и применяемым в различных отраслях национальной экономики. На конференции были представлены как достижения глобальных корпораций, производящих соответствующее ПО и осуществляющих аппаратное обеспечение, так и разработки с открытым исходным кодом.

Работа пленарной сессии началась с разбора современных платформ NoSQL, затем обсуждались проблемы искусственного интеллекта — эта тема пронизывала почти все доклады конференции. Компания Finstar Labs представила свои достижения в понимании машиного языка отзывов в Интернете, на основе анализа которых планируется сделать поисковик, помогающий выбрать лучший вариант рекомендательного сервиса с набором нужных пользователю свойств.

В МТС обработка Больших Данных используется среди прочего для определения потенциально нелояльных клиентов. Другая задача — определение качества связи. Проблемами лояльности обеспокоены и банки: компания Rubbles (SBDA Group) предлагает банкам мобильное приложение для исследования поведения клиента. Представитель компании «СКБ Контур», работающей с Федеральной налоговой службой, рассказал о решении, позволяющем сверять собранные в автоматическом режиме «торговые книги» всех отечественных компаний.

Доклады о популярных СУБД PostgreSQL и MySQL соседствовали с сообщениями разработчиков таких пока еще экзотических платформ, как Tarantool, которая представляет собой NoSQL СУБД с открытым кодом и сервер приложений на языке Lua. Этот новый проект уже может похвастаться высокой производительностью обработки запросов. Графовые СУБД были представлены на конференции системой OrientDB. Не была забыта и старейшая российская разработка — СУБД «Линтер» компании «РЕЛЭКС».

«1С-Битрикс» и SAP Labs, Intel и Microsoft поделились с участниками конференции своими взглядами на инструменты работы с Большими Данными. Медицинская наука была представлена Лечебно-реабилитационным центром РАМН, сотрудники которого интенсивно работают с Большими Данными. В НИЦ «Курчатовский институт» работают над тем, чтобы преодолеть ограничения систем бизнес-анализа, черпающих данные из распределенных хранилищ. В докладе представителя компании «Сбербанк-Технологии» разбирался опыт решения задачи борьбы с кредитным фродом с использованием методов обработки транзакций, биометрии, анализа текста анкет и поисковых запросов, а также изучения данных социальных сетей. Но есть области применения машинного обучения, где прогресс уже стал буквально вопросом жизни и смерти. Для поиска злоумышленников необходимо уметь надежно распознавать лица, обрабатывая видеопотоки с камер в реальном времени. В компании «Техносерв» для этого применяют не только интеллектуальное ПО, но и графические ускорители.

РИС.

Логотип ТБД

http://www.ospcon.ru/event/konferentsiya-tekhnologii-bolshikh-dannykh-tbd-2016_136.html

[]