Тема ноябрьского номера журнала Computer за 2005 год (IEEE Computer, Vol. 38, No. 11, November 2005) — Power-Aware Computing, что можно перевести длинной, но достаточно точной фразой «Организация вычислений в условиях осведомленности о потребляемой мощности».

У тематической части номера нет специального редактора, и она содержит всего три статьи. Первая статья называется «Разнородные мультипроцессоры на кристалле» (Heterogeneous Chip Multiprocessors). Ее написали Ракеш Кумар (Rakesh Kumar), Дин Таллсен (Dean Tullsen), Номан Юппи (Norman Jouppi) и Партасарати Ранганатан (Parthasarathy Ranganathan). После появления многоядерных микропроцессоров Intel, AMD, IBM и Sun Microsystems мультипроцессоры на кристалле (Chip Multiprocessor, CMP) перешли из исследовательской области в область реального производства. Если к CMP по-прежнему применим закон Мура, можно ожидать возрастания числа ядер в геометрической прогрессии по мере уменьшения размеров элементов. Важнейшим вопросом CMP являются размер и мощность процессорных ядер. Для многих серверных приложений, прежде всего, важно соотношение производительности, стоимости и потребляемой мощности. В идеале, в CMP, направленных на поддержку таких приложений, должно использоваться много небольших процессорных ядер, потребляющих мало энергии. Многие исследования в области CMP первоначально ориентировались именно на такое применение. Однако пользователи настольных ПК в большей степени заинтересованы в эффективности одного или нескольких приложений в данный момент времени. CMP, разработанные в расчете на таких пользователей, вероятно, должны основываться на небольшом числе более крупных, потребляющих большую мощность ядер, которые обладают повышенной однопотоковой производительностью. таким образом, проектировщики CMP сталкиваются с проблемой конфликтующих требований к построению процессорных ядер. В действительности приложение далеко не всегда можно точно отнести к одному из упомянутых классов. Многие приложения в одних точках своего выполнения могут нуждаться в повышенной скорости крупного процессорного ядра, а в других — в эффективности небольших ядер. Более того, наилучшее соответствие приложения процессору может зависеть и от контекста использования системы, например, от того, работает ли ноутбук от батарей или от сети.

Авторы статьи полагают, что наилучшим решением является неоднородный мультипроцессор на кристалле, включающий как упрощенные, так и более сложные ядра. Исследования неоднородных, или асимметричных, CMP демонстрируют их существенное преимущество перед более традиционными симметричными CMP по отношению производительности к потребляемой мощности. Кроме того, применение асимметричных CMP позволяет снизить влияние закона Амдала на производительность параллельных вычислений. Закон Амдала утверждает, что увеличение быстродействия параллельного приложения ограничено последовательной частью приложения. В современных CMP важным ограничением является рассеяние мощности. В одном из исследований (www.cs.wisc.edu/~isca2005/papers/05B-01.PDF) предлагается при выполнении последовательных частей приложения весь энергетический потенциал кристалла использовать для питания одного крупного процессорного ядра, позволяя ему работать с максимально возможной скоростью. При выполнении параллельных частей приложения энергетический потенциал используется более эффективно для обеспечения питания небольших ядер с низким потреблением мощности. Это позволяет максимизировать отношение показателей производительности и рассеяния мощности.

Авторы следующей статьи подборки — Кэк Камерон (Kirk Cameron), Рон Ге (Rong Ge) и Ксижоу Фенг (Xizhou Feng). Название статьи — «Высокопроизводительные распределенные вычисления для научных приложений в условиях осведомленности о потребляемой мощности» (High-Performance, Power-Aware Distributed Computing for Scientifc Applications). Компьютерные модели углубляют понимание сложных явлений и косвенно способствуют улучшению качества жизни. Биологическое моделирование ДНК-последовательностей и процессов свертывания белка помогает развитию здравоохранения и обнаружению новых лекарственных средств. Математическое моделирование мировой экономики помогает вырабатывать правильную политику. Наномоделирование обеспечивает совершенствование компьютерных технологий.

Развивающиеся параллельные и распределенные системы, разрабатываемые для приложений научного моделирования, отличаются чрезвычайной сложностью и высоким уровнем энергопотребления. Поскольку у экспертов в области суперкомпьютеров нет согласия относительно того, какими должны быть базовые технологии, вероятно, эти системы будут разнообразными. Тем не менее большинство из них будет строиться на основе коммерческих компонентов в виде интегрированных и масштабируемых кластеров. Такие решения будут обеспечивать высокий уровень параллелизма, а развитые программные средства будут синхронизовать вычисления и коммуникации различных операционных систем и тысяч компонентов. При том что возрастающие вычислительные потребности научных приложений ведут к экспоненциальному росту пиковой производительности вычислительных систем, они же приводят к аналогичному росту энергопотребления и сложности крупномасштабных систем, основанных на использовании коммерческих приложений.

Авторы статьи разработали среду PowerPack профилирования, анализа и управления энергопотреблением в научных приложениях. В PowerPack 1.0 сочетается использование непосредственных измерений энергопотребления с использованием мультиметров, интеллектуальных источников питания и усовершенствованного интерфейса конфигурирования системы и управления энергопитанием Advanced Configuration and Power Interface (ACPI), а также программных средств сбора, анализа данных и управления. С использованием PowerPack разработчики могут профилировать производительность и энергопотребление компонентов и сокращать энергопитание процессора в периоды слабой рабочей нагрузки с целью экономии энергии, поддерживая при этом высокий уровень производительности. Библиотечные программы PowerPack позволяют пользователям встраивать в приложения вызовы ACPI и понижать скорость процессора на основе технологии динамического масштабирования напряжения (Dynamic Voltage Scaling, DVS). При подаче пониженного напряжения процессор потребляет меньшую мощность, и его производительность уменьшается. Для сохранения высокой производительности научных приложений PowerPack может снижать энергопотребление на тех фазах выполнения приложения, когда эффективность определяется не скоростью процессора, а возможностями памяти или коммуникационной среды.

Последняя статья по теме номера, написанная Роберто и Оскаром Касасами (Roberto Casas, Oscar Casas), названа «Уточнение состояния батарей при разработке систем, осведомленных об источниках энергии» (Battery Sensing for Energy-Aware System Design). Технология портативных электронных устройств быстро развивается. Появляются все более миниатюрные устройства с развитой функциональностью, более емкой памятью, более быстрыми процессорами, усовершенствованными средствами коммуникации. Повышение уровня полезности этих устройств позволяет предвидеть появление развитых сред «всепроникающих вычислений» и инструментальных систем в форме беспроводных сенсорных сетей. К сожалению, технологии энергопитания и хранения данных развиваются не так быстро. Кроме совершенствования емкости батарей и сокращения энергопотребления аппаратуры, исследования в этой области включают сбор энергии окружающей среды, разработку более эффективных алгоритмов управления энергопотреблением и методов оптимизации использования батарей. Особо важны исследования методов определения степени заряженности батарей или их оставшейся энергии. В то время как большинство предыдущих работ в области контроля аккумуляторных источников энергии фокусировалось на моделировании использования батарей с использованием параметризованных измерений SOC, авторы данной статьи предлагают коммерческие устройства и практические наборы значений параметров, пригодные к использованию в реальных приложениях, в которых требуется контроль аккумуляторных источников энергии. В наиболее традиционных случаях такой контроль используется для предсказания ожидаемого времени жизни энергоресурса, чтобы предотвращать ситуации неожиданного прекращения подачи питания (например, в форме предупреждения пользователя, что он должен либо подсоединить устройство к сети, либо сменить батареи). Для оптимизации скорости разрядки батарей и избежания ущерба, который может принести чрезмерная разрядка аккумуляторов в более крупных системах, предупреждение может инициироваться при достижении заранее заданного уровня разрядки. В сенсорных сетях, кроме того, для продления времени жизни сети можно использовать протоколы, позволяющие использовать энергию, оставшуюся в узлах, для вычисления оптимальных коммуникационных маршрутов. Разработчики портативных устройств должны оценить полезность и важность оценки степени заряженности батарей и подвести баланс между требуемой точностью, сложностью и объемом ресурсов, потребных для оценивания. Для простых и дешевых устройств, не требующих высокой точности контроля оставшейся энергии, наилучшим выбором часто является измерение напряжения. Для более дорогих интеллектуальных аккумуляторов и мониторов уровня заряда батарей должны обеспечиваться более точные предсказания. По мере повышения мощности доступной аппаратуры соответствующие решения можно будет получить на основе реализации усложненных параметризованных моделей.

Вне тематической подборки опубликованы еще две большие статьи. Статью «Возможности и потребности физических вычислительных систем» (Opportunities and Obligations for Physical Computing Systems) представили Джон Станкович (John A. Stankovic), Инсап Ли (Insup Lee), Алоизиус Мок (Aloysius Mok) и Радж Раджкумар (Raj Rajkumar). Наблюдаемое слияние технологий встроенных систем и систем реального времени с беспроводными, сенсорными и сетевыми технологиями приводит к созданию инфраструктуры для кардинальных технических, экономических и социальных перемен. Основываясь на бесшовной интеграции вычислений с физическим миром на основе сенсоров и актуаторов, эта революция принесет много пользы. Можно предвидеть появление данных и услуг, которые будут доступны в любое время и в любом месте всем людям. Наиболее важные системы, используемые на транспорте, в производстве, защите инфраструктуры, управлении процессами и электросетях, станут более эффективными и умелыми. Повысится уровень жизни людей; они будут чувствовать себя более защищенными. Реальностью станут приложения, которые невозможно даже вообразить сегодня. Хотя составные части этой картины существуют уже несколько лет, и она не слишком отличается от известной концепции «всепроникающих» вычислений, авторы статьи полагают, что разработчики должны сфокусироваться на физических аспектах всепроникающих вычислений, на аспектах, относящихся к встроенным системам и системам реального времени. Авторы называют эту область исследований и разработок физическими вычислительными системами. Для реализации потенциала всепроникающих вычислений разработчики должны создавать не только высокоуровневые программные системы и прикладные решения, но также обеспечивать и низкоуровневые решения на уровне встроенных систем. Для лучшего понимания преимуществ физических вычислений авторы рассматривают три прикладные области: уход за престарелыми людьми (assisted living), системы реагирования на чрезвычайные ситуации и защита важнейших инфраструктур на национальном уровне. Возможность удаленного мониторинга физического состояния пожилых людей позволяет не только сохранять их жизнь, но и способствует душевному спокойствию родственников. На удовлетворение этой возрастающей потребности нацелены сенсорные информационные системы ухода за престарелыми (Sensor Information Systems for Assisted Living, SISAL). Такие системы, вероятно, окажут серьезное влияние на общественное благополучие. В общих чертах, SISAL включает интеллектуальные мониторы, самоуправляющиеся устройства, сенсорные сети и информационные системы, разработанные для оказания помощи престарелым и инвалидам. Хотя время жизни некоторых компонентов SISAL достигает 10-20 лет, вычислительные и коммуникационные платформы, поддерживающие инфраструктуру таких систем, могут изменяться гораздо быстрее. Недопустимо возникновение связанных с этим проблем, прерывающих обслуживание пользователей. Физические вычислительные системы в виде беспроводных сенсорных сетей обладают большим потенциалом для обеспечения быстрого реагирования на чрезвычайные ситуации, такие как землетрясения, аварийные разливы химикатов, лесные пожары и террористические атаки. Для эффективного реагирования на такие чрезвычайные ситуации потребуется быстрое развертывание тысяч сенсорных узлов, возможно, с привлечением авиации. Узлы должен быть дешевыми и простыми, однако при совместной работе узлов сеть будет в состоянии оценить ситуацию, определить наличие оставшихся в живых, послать информацию в ближайшую группу службы спасения, определить безопасные пути выхода из зоны бедствия и осуществлять мониторинг дальнейших событий. Для реализации подобных систем необходимо решить много технических проблем. Например, поскольку сенсорные сети имеют дело с ситуациями реального мира, предоставляемые ими службы должны отвечать определенным временным ограничениям. При наличии ограниченных ресурсов сети и в условиях непредсказуемых ситуаций невозможно гарантировать соблюдение таких ограничений. Более практичными кажутся решения с вероятностным гарантированием ограничений. Для защиты и совершенствования важных инфраструктур требуется проведение долгосрочных исследований в области технологии физических систем. Нужны новые концепции для реализации надежных и безопасных инфраструктур в сложных сетях взаимодействующих физических систем, таких как электрические сети, телекоммуникации, банки и транспортные системы. Имеющиеся инфраструктуры уязвимы, например, в системах управления воздушным движением должны учитываться возможности физических или компьютерных атак. Решения, основанные на физических вычислительных системах, могут быть применены к важнейшим инфраструктурам для повышения их надежности, безопасности и эффективности. Например, можно улучшить физическую безопасность путем окружения физической инфраструктуры беспроводной сенсорной сетью. Фундаментальной проблемой являются способы эффективного построения крупномасштабных встроенных систем реального времени. Для этого требуется глубокое понимание подходов к моделированию и анализу совокупного поведения крупномасштабных систем. Такое понимание необходимо для предсказания поведения системы и управления им, для надежного и эффективного построения и поддержки таких желательных черт, как простота композиции, анализа, тестирования, диагностики, обеспечение должного качества обслуживания и высоких эксплуатационных характеристик.

Последняя большая статья ноябрьского номера, «Научный подход к обнаружению кибератак» (A Scientific Approach to Cyberattack Detection), написана Нонг Йе (Nong Ye) и Тони Фарли (Toni Farley). Несмотря на все попытки противодействия кибер?атаки продолжают угрожать глобальной информационной инфраструктуре. К сожалению, применяемые сегодня методы противодействия — предотвращение, обнаружение и реагирование — неэффективны, неточны и ограничены. Например, механизмы предотвращения атак затрудняют атаки, но не могут полностью блокировать попытки опытных атакующих, поскольку в компьютерах и сетях имеются мириады неизвестных уязвимостей. Механизмы обнаружения отслеживают системные действия на предмет признаков атаки, но они не могут хорошо работать при новых атаках или при нестандартном поведении системы. Так, подходы к реагированию направлены на установление и диагностирование маршрутов атак, введении причинно-следственных шаблонов и выполнении соответствующих действий, но эти подходы обычно основываются на медленной ручной работе с небольшим пониманием причинно-следственных шаблонов и соответствующих данных.

Разработчики систем обнаружения, в частности, обычно полагаются на эмпиризм и эвристики, т.е. используют стратегию, лишенную глубокого понимания сигналов, которые атакующий может генерировать в киберпространстве. Несостоятельными оказываются два наиболее распространенных подхода к распознаванию атак — распознавание сигнатур и обнаружение аномалий. В первом подходе, который в контексте обнаружения кибератак называют распознавание атаки (attack recognition), опытные аналитики фиксируют шаблоны сигнатур атак вручную или обнаруживают их автоматически путем анализа данных об активности компьютера или сети под воздействием атаки и при нормальном функционировании. Затем система распознавания атак сопоставляет активности и файлы компьютера или сети с сохраненными сигнатурами атак. При обнаружении сигнатуры атаки (например, трижды отвергнутой попытки входа в систему, что может сигнализировать об атаке с целью нахождения пароля) система инициирует сигнал тревоги. Однако, поскольку система не может знать шаблон сигнатуры новой атаки, распознавание срабатывает не всегда. У подхода обнаружения аномалий (non-norm detection) также имеются ограничения, поскольку для него требуется установившаяся модель нормального поведения системы, или профиль нормы, чтобы отслеживать активности и измерять отклонения от нормы. Проблемы возникают в тех случаях, когда естественное поведение системы является нерегулярным, из-за чего может возникать много неправильных сигналов тревоги. По этой причине данный подход не применяется в коммерческих системах обнаружения, несмотря на потенциальную возможность обнаружения новых атак. Еще один недостаток обоих подходов состоит в том, что оба они часто не позволяют различить сигнатуры атак и профили нормы. При любой атаке данные о ней и о нормальном использовании перемешиваются, так что результирующие характеристики данных являются слабыми и трудно опознаваемыми. Невозможность разобраться в этой смеси приводит к генерации ложных сигналов тревоги и отсутствию реакции в случае реальной атаки.

Авторы считают, что при наличии этих брешей в точности обнаружения атак настало время обратить внимание на более научные принципы, подобные тем, на которых основаны модели опознавания сигналов, приспособленные к обработке смеси сигнальных и шумовых данных. При использовании таких моделей было бы возможно разделить характеристики атак и нормы, обеспечивая минимум релевантных данных для точного и эффективного обнаружения широкого диапазона атак. Устойчивые системы, основанные на технологии опознавания сигналов, обеспечили бы глубокое понимание характеристик сигналов и шума. Эти знания, в свою очередь, позволили бы построить математические и статистические модели, позволяющие точно опознать сигнал атаки среди шума нормального использования системы, даже если атака едва различима.

На этот раз все. Сергей Кузнецов (kuzloc@ispras.ru).