По многолетней традиции редакция журнала Computer январский выпуск обычно посвящает перспективным работам, которые, вероятно, будут оказывать влияние на развитие информационных технологий в последующие годы.

Статья «Производительность компьютеров: игра окончена или новый уровень?» (Computing Performance: Game Over or Next Level?) представлена Сэмьюэлом Фаллером (Samuel Fuller) и Линетт Миллетт (Lynette Millett). В конце 2010 года Совет по компьютерным наукам и телекоммуникациям Национальной академии наук США  выпустил под редакцией авторов данной статьи книгу «Производительность будущих компьютеров: игра окончена или новый уровень?» (The Future of Computing Performance: Game Over or Next Level?). При содействии Национального научного фонда США Совет образовал экспертный комитет для выявления основных проблем, стоящих на пути дальнейшего роста производительности компьютеров, и формирования общих черт программы исследований, соответствующих компьютерным потребностям текущего века. Для этого эксперты представили разные точки зрения относительно областей полупроводниковой технологии, компьютерных архитектур, языков и методов программирования, а также приложений.

Можно было бы ожидать, что будущие достижения ИТ появятся вследствие естественного развития результатов, полученных в последние 50 лет, но реальность оказалась иной. Достижения этого периода в области ИТ во многом опирались на быстрый рост производительности отдельных процессоров (за последние 20 лет она увеличилась в 10 тыс. раз) при постоянно снижаемой стоимости и контролируемом повышении потребляемой энергии. Для масштабного внедрения ИТ было важно, что рост производительности достигался при сохранении поддержки модели последовательной хранимой программы, разработанной для компьютеров в 1940-е годы. Кроме того, производители компьютеров обеспечивали совместимость конкретной системы команд для нескольких поколений аппаратуры: на новом компьютере можно было выполнять новые приложения, а существующие работали быстрее. Таким образом, не требовалось переписывать программное обеспечение для каждого нового поколения аппаратуры, и имелся простор для целеустремленности и творческой фантазии при создании все более инновационного программного обеспечения. В свою очередь, это побуждало коммерческие и государственные предприятия, а также рядовых потребителей покупать программные и аппаратные средства последующих поколений.

В начале XXI века рост производительности отдельных процессоров замедлился, что объясняется фундаментальными ограничениями энергоэффективности интегральных схем, основанных на технологии комплементарных металло-оксидных полупроводников. Как следствие, очевидным образом, ограничивается эффективность, которой можно добиться в однопроцессорных архитектурах. При этом миниатюризация полупроводниковых устройств продолжается, и в одну интегральную схему можно по-прежнему встраивать все большее число транзисторов. В результате индустрия начала производить чипы с несколькими процессорами, но это изменение аппаратуры приводит к необходимости соответствующего изменения в модели программирования, которое становится параллельным. Однако основная часть сегодняшнего программного обеспечения написана в соответствии с моделью последовательного программирования, и приложения, написанные подобным образом, невозможно ускорить просто за счет их запуска на многоядерных процессорах.

Единственный предсказуемый способ продолжить рост производительности состоит в том, чтобы привести в соответствие параллельную аппаратуру с параллельным программным обеспечением и обеспечить переносимость нового программного обеспечения на параллельную аппаратуру следующих поколений. В некоторых областях программного обеспечения наблюдается значительный прогресс, как например в ряде научных приложений, а также в коммерческих поисковых и транзакционных приложениях. Героические программисты способны использовать огромное число параллельных процессоров, процветают проблемно-ориентированные языки, и сложность программирования скрывается мощными абстракциями. Однако ни один из этих подходов не годится для повсеместной поддержки программирования параллельной аппаратуры, требуемого для обеспечения в следующие 20 лет такого же оглушительного воздействия ИТ на общество, какое наблюдалось в последние 50 лет.

Комитет по поддержке роста производительности компьютеров (Committee on Sustaining Growth in Computing Performance) рекомендует обратить особое внимание на исследования, посвященные совершенствованию параллельной обработки и переходу к параллельному компьютингу. Наивысшим приоритетом следует наделить следующие направления исследований:

  • алгоритмы, допускающие параллельную обработку;
  • новые компьютерные «стеки» (приложения, языки программирования, среды поддержки времени выполнения/виртуальные машины, операционные системы и архитектуры), позволяющие выполнять параллельные, а не последовательные программы, эффективно управляющие программным параллелизмом, аппаратным параллелизмом, энергопотреблением, основной памятью и другими ресурсами;
  • модели переносимого программирования, позволяющие программистам просто выражать параллельные конструкции и обеспечивающие повторное использование ПО на аппаратных средствах следующих поколений;
  • параллельные компьютерные архитектуры, управляемые приложениями, включая развитие однокристальных мультипроцессоров, традиционных архитектур с распараллеливанием по данным, архитектур, ориентированных на приложения, и принципиально новых архитектур;
  • открытые стандарты интерфейсов систем параллельного программирования, стимулирующие сотрудничество и инновации для ускорения перехода к практическим параллельным компьютерным системам;
  • инженерные и научные учебные программы, в которых уделяется повышенное внимание параллелизму и применению различных методов и подходов для лучшей подготовки студентов к использованию компьютерных ресурсов, с которыми им придется встретиться в течение своей карьеры.

Все эти области важны, однако фундаментальные ограничения энергоэффективности не позволят при всем старании получить полное решение. Долговременный рост производительности параллельных компьютерных систем удастся обеспечить только в том случае, если они станут более энергоэффективными, поэтому, кроме активизации исследований в областях параллельной обработки, необходимы исследования и разработки, направленные на повышение энергоэффективности компьютерных систем на всех уровнях технологии.

Статью «От микропроцессоров к нанохранилищам: переосмысление систем, ориентированных на данные» (From Microprocessors to Nanostores: Rethinking Data-Centric Systems) написал Партасарати Ранганатан (Parthasarathy Ranganathan). Сегодня мы вступаем в увлекательную эпоху проектирования систем. Исторически первый компьютер, достигший терафлопсной производительности, был продемонстрирован в конце 1990-х. В 2000-х появился первый петафлопсный компьютер. Экстраполируя эти данные, можно ожидать, что первый экзафлопсный компьютер появится уже в конце этого десятилетия. Кроме непрерывного повышения производительности, также наблюдается прогресс в областях энергопотребления, жизнеспособности, управляемости, надежности и масштабируемости. В частности, управление электропитанием теперь является одним из основных конструктивных элементов. В настоящее время системные архитекторы не ограничиваются оптимизацией операционного энергопотребления, а анализируют весь жизненный цикл энергопотребления системы для обеспечения экологической устойчивости. Подобно этому, появление облаков не только способствовало развитию новой модели предоставления компьютерных ресурсов, но также позволило добиться значительного прогресса в отношении масштабируемости, а также привело к ряду инноваций в программном обеспечении.

Если смотреть еще дальше, то оказывается, что появляющиеся технологии фотоники, энергонезависимой памяти, трехмерной компоновки интегральных схем (3D stacking), а также новые рабочие нагрузки, ориентированные на обработку данных, обеспечивают новые притягательные возможности. Сочетание этих тенденций вызывает необходимость переосмыслить основные строительные блоки будущих систем и предложить новый архитектурный подход нанохранилищ, ориентированный на поддержку рабочих нагрузок обработки данных и на совместную разработку аппаратуры и программного обеспечения на основе грядущих технологий.

Термин «нанохранилище» (nanostore) вводится автором как альтернатива термину «микропроцессор» и подчеркивает важность данных, а не вычислений. Ключевой характеристикой нанохранилищ (рис. 1) является совместное размещение процессоров и энергонезависимой памяти, что устраняет многие промежуточные уровни иерархии хранения данных. Все данные хранятся в одноуровневой энергонезависимой памяти, заменяющей уровни традиционной дисковой памяти и динамической основной памяти. Диски используются только для хранения архивных копий.

 

Рисунок 1. Пример блока нанохранилища с трехмерной компоновкой микросхем — процессорный элемент интегрирован в кристалле с энергонезависимой памятью и сетевым интерфейсом

Следующая статья называется «Устранение разрыва плотности соединений для экзамасштабных вычислений» (Bridging the Interconnection Density Gap for Exascale Computation) и написана Дэниэлом Стивенсоном (Daniel Stevenson) и Робертом Конном (Robert Conn). При разработке очередных поколений высокопроизводительной компьютерной аппаратуры системным архитекторам придется столкнуться со сложными проблемами: потребляемая мощность должна уменьшаться, пропускная способность каналов «процессор-память» и «процессор-процессор» – увеличиваться, а расстояние между компонентами – значительно сокращаться. Хотя на горизонте видно несколько архитектурных подходов, наиболее перспективными кажутся технологии крупномасштабных трехмерных полупроводниковых интерфейсов (3D silicon interposer, 3DSI), традиционных бескорпусных кристаллов и новейших трехмерных схем, компонуемых из бескорпусных кристаллов. По мнению авторов, компоновка бескорпусных кристаллов на различных кремниевых подложках, по-видимому, является наиболее эффективным подходом к решению проблем проектирования экзамасштабных вычислительных систем и других высокопроизводительных приложений, которые, вероятно, появятся в следующем десятилетии.

В последние пять лет авторы исследовали применение технологии 3DSI в высокопроизводительных вычислительных системах для поддержки, в частности, отказоустойчивости в экзамасштабных системах. Вначале основное внимание уделялось проектированию реконфигурируемых компьютерных систем, но позже акцент был перенесен на традиционные высокопроизводительные вычислительные системы. Эти исследования позволили получить серьезные результаты в областях разводки питания и сигналов, управления температурным режимом, вертикальной интеграции модулей и их взаимосвязи. На основе этих результатов появилась идея многослойных 3DSI, в которых каждый слой оптимизируется для поддержки некоторой уникальной функции.

Идея присоединения бескорпусных чипов прямо к полупроводниковым пластинам и другим подложкам для миниатюризации монтажной схемы не нова. Однако до сих пор площадь компоновочных узлов, как правило, не могла превышать 1 кв. дюйм из-за наличия двух серьезных производственных проблем: отслоения металлических связей от поверхности полупроводников в ходе ускоренного старения и уменьшения процента выхода годной продукции, включающей частично протестированные кристаллы. Новые достижения позволяют снять ограничения на размеры. Совершенствование процесса производства и переход индустрии с алюминия на медь приводят к существенно лучшему сцеплению металлических связей. Разработка отказоустойчивых металлических структур позволяет теперь выпускать надежные монтажные схемы большой площади (до 100×125 кв. мм). Наконец, в последние годы большой прогресс достигнут в области тестирования бескорпусных кристаллов, возможно, из-за их потребности в приложениях трехмерной графики.

Последняя статья тематической части журнала называется «Апоптический компьютинг: программируемая смерть по умолчанию систем, основанных на компьютерах» (Apoptotic Computing: Programmed Death by Default for Computer-Based Systems) и написана Роем Стерритом (Roy Sterritt). На международной конференции по искусственному интеллекту в 2009 году исследователи предупреждали, что кошмарные сценарии научно-фантастических кинофильмов (таких, как «2001: космическая Одиссея», серии «Терминатор» и «Матрица», «Особое мнение» и «Я, робот») могут оказаться вполне правдивыми. Человечество может утратить контроль над компьютерными системами, которые выполняют все больше рабочей нагрузки людей (от звонков по телефону до объявления войны) и уже достигли уровня устойчивости к разрушению, сопоставимой с живучестью таракана. Например, беспилотные самолеты, способные самостоятельно отыскивать и уничтожать людей, уже вышли за пределы кинотеатров и используются на полях военных действий Афганистана и Ирака. Аналогичные устройства могут вскоре появиться над городскими улицами для обеспечения внутреннего контроля. Например, компания Samsung разрабатывает роботов-часовых для несения пограничной службы с возможностью «стрельбы на поражение».

С 2002 года в университете Ольстера выполняется проект Apoptotic Computing, долговременной целью которого является обеспечение программируемой смерти по умолчанию для компьютерных систем (в биологии апоптоз – это форма гибели клетки, проявляющаяся в уменьшении ее размера, конденсации и фрагментации хроматина, уплотнении наружной и цитоплазматической мембран без выхода содержимого клетки в окружающую среду). Апоптические вычисления мотивируются механизмом апоптоза в многоклеточных организмах, и этот подход можно считать относящимся к областям биоинспирированных вычислений (bio-inspired computing), природных вычислений (natural computing) и самоуправляемых систем (autonomic system). В статье рассматриваются два примерных класса приложений: автономные среды, основанные на использовании агентов, и разведывательные системы с использованием «роев» роботов.

Авторами статьи «Автоматизация управления выбросами углекислого газа из зданий» (Automating a Building’s Carbon Management) являются Гита Тиагараджан (Geetha Thiagarajan), Венкатеш Саранган (Venkatesh Sarangan), Рамасубраманьян Сурианараян (Ramasubramanian Suriyanarayanan), Прагатичитра Сетанарам (Pragathichitra Sethuraman), Ананд Сивасубраманьян (Anand Sivasubramaniam) и Авинаш Егинараян (Avinash Yegyanarayanan). В мире растет обеспокоенность по поводу потребления энергии, и лица, принимающие решения в области распределения ресурсов, должны стремиться к применению экологически выгодных, чистых (green) решений в системах управления. Двумя основными проблемами являются потребление энергии и выброс углекислого газа, причем наибольший вред наносят здания. По данным Совета по экологически чистому строительству США (Green Building Council),  здания потребляют около 72% общего ресурса электроэнергии и дают 39% общего объема выброса парникового газа.

Для определения воздействия здания на окружающую среду и сокращения его углеродистого следа менеджеры должны тщательно отслеживать основные источники парникового газа в здании. В настоящее время такой мониторинг состоит в организации периодических проверок для оценки уровней потребления ресурсов и выброса углекислого газа в зданиях, на основе которой затем вырабатываются рекомендации. Авторы полагают, что у такого подхода имеются серьезные недостатки. Углеродистый след здания возникает в результате сложного взаимодействия его конструкционных и инфраструктурных характеристик, бизнес-процессов и особенностей эксплуатации, погодных условий, источников энергии, поведения обслуживающего персонала и нормативных актов. Более эффективный подход состоит в непрерывном отслеживании этих влияющих факторов и последующей перестройке рекомендаций с использованием реалистичного представления о потреблении энергии и выбросах парникового газа.

Непрерывный мониторинг, выполняемый вручную, может оказаться трудоемким, чреватым ошибками и дорогостоящим, поэтому для управления выбросами углекислого газа имеет смысл применять ИТ-решения, масштабируемые под размеры зданий и позволяющие не отставать от их эксплуатационной динамики. Кроме того, это позволит инкапсулировать и воспроизводить наилучшие методы создания и применения экологически чистых решений, так что даже на объектах с недостаточно опытным персоналом можно успешно использовать качественное управление выбросами углекислого газа. Наконец, поскольку ИТ уже применяется в системах, имеющих отношение к выбросу парникового газа предприятиями, таких как ERP или управление потоками работ, разработку систем для управления выбросами парникового газа не обязательно начинать с нуля.

Авторы разработали ИТ-инфраструктуру ECView (Energy and Carbon View), помогающую менеджерам находить и применять решения, сокращающие углеродистый след зданий. Данная система в течение года использовалась для непрерывного мониторинга и анализа углеродистого следа в офисном здании компании Tata Consultancy Services. На основе полученных данных были установлены пути к сокращению углеродистого следа этого здания, причем некоторые из выработанных стратегий вообще не требуют дополнительных капиталовложений.

Последняя большая статья номера представлена Анной Сквичиарини (Anna Squicciarini), Сатьей Девом Раджасекараном (Sathya Dev Rajasekaran) и Марко Касассой Монтом (Marco Casassa Mont) и называется «Использование моделирования и симуляции для оценки рискозависимости предприятий от социальных сетей» (Using Modeling and Simulation to Evaluate Enterprises’ Risk Exposure to Social Networks). По мере роста распространенности социальных сетей служащие должны все более сознательно относиться к потенциальным рискам, касающимся вопросов безопасности и бизнеса. Предприятия сталкиваются не только с падением производительности труда из-за того, что служащие проводят много времени в социальных сетях, но и с угрозами утечки информации, которая может негативно влиять на репутацию компаний, раскрывать нежелательные детали внутренней организации предприятий или даже напрямую порочить организацию, в которой работают служащие.

Социальные сети делают доступной бизнес-информацию для широкой аудитории, включающей заказчиков, конкурентов по бизнесу и партнеров, однако к этой информации могут получить доступ и хакеры, что может привести к утрате конкурентных преимуществ и финансовым потерям. Риски атак на хранилища данных социальных сетей возрастают по мере роста доступности соответствующих инструментальных средств, таких как агрегаторы данных и средства их интеллектуального анализа. Лица, принимающие решения (начальники технологических, информационных служб и служб информационной безопасности), серьезно озабочены проблемами социальных сетей, и во многих компаниях это явление активно изучается для понимания возможных преимуществ и рисков, а также для поиска мер смягчения потенциальной опасности использования этих сетей.

К числу подобных очевидных мер относятся блокирование изобличенных сайтов, обновления политик безопасности для предотвращения неприемлемого использования социальных сетей и введение новых правил и руководств. Однако эти противодействующие подходы часто не дают должного эффекта, если руководство компании не понимает причины рисков и влияние вариантов противодействия им. Например, блокирование доступа к сайтам социальных сетей с офисных компьютеров позволяет сократить время, затрачиваемое служащими на активности в социальных сетях, но никак не влияет на служащих, работающих дома или использующих персональные устройства. В существующих руководствах по безопасному поведению в социальных сетях часто просто предлагается руководствоваться здравым смыслом и следовать общим процедурам. Очевидно, что такие советы не могут предотвратить или смягчить возможные утечки, а в традиционных методологиях оценки рисков (например, ISO 2700x) предлагаются практические советы и процессы оценки, основанные на соображениях безопасности, однако они требуют детализации и увязки с проблематикой социальных сетей.

 

Рисунок 2. Обзор методологии оценки рисков: определение проблемы, сбор опытных данных, моделирование и симуляция, а также анализ и валидация результатов

Авторы предлагают альтернативный подход (рис. 2), помогающий лицам, принимающим решения, оценивать риски социальных сетей, а также выбирать варианты решений для смягчения рисков. В этом подходе применяются языки моделирования для представления процессов, пользователей и систем, имеющихся на предприятии, угрожающих сред, а также уместных контрольных пунктов безопасности. В системе также моделируются последствия возможных угроз и влияние применения различных типов контроля.

До следующей встречи, Сергей Кузнецов, kuzloc@ispras.ru.