Computerworld, США

Сотрудники HP Labs занимаются проектированием самого широкого спектра технологий, начиная от средств управления центрами данных и заканчивая новыми компьютерными архитектурами

Вряд ли в деловых кругах или среди авторов публикаций в компьютерной прессе сегодня можно встретить человека, который не дал бы компании Hewlett-Packard совета «обрести себя вновь».

Независимо от того, какое направление выберет новый генеральный директор HP Марк Херд, инновационные технологии действительно начинают возрождаться в стенах HP Laboratories. Это подразделение получает только 5% общего бюджета HP, выделяемого на исследовательские и опытно-конструкторские работы, но тем не менее его сотрудники занимаются проектированием самого широкого спектра технологий, начиная от средств управления центрами данных (их появление в коммерческих приложениях ожидается уже в следующем году) и заканчивая новыми компьютерными архитектурами, практическое применение которых в ближайшие годы вряд ли возможно.

Дункан Стюарт занимается тем, что по всей видимости не принесет никакой отдачи в ближайшие семь-десять лет. Исследователь-физик вместе со своими коллегами надеется создать компьютеры чрезвычайно малых размеров

«Мы стараемся держаться в авангарде компании, — отметил директор HP Labs по стратегическому планированию Роберт Уэйтс, — и пытаемся просчитывать ситуацию на несколько шагов вперед».

В HP Labs избрали предметом своих исследований проекты распределенных вычислений и предоставления ресурсов по принципу коммунальных услуг (utility computing), построение самоуправляющихся систем, виртуализация и интеллектуальные центры данных.

Ближайшие перспективы систем хранения

Менеджер по исследованиям в области систем хранения Бет Кир утверждает, что 80% бюджета информационных служб отводится на поддержку аппаратного и программного обеспечения. Цель нынешних проектов HP Labs заключается в том, чтобы сократить эти расходы почти наполовину. Для ее достижения в первую очередь необходимо автоматизировать выполнение типовых задач информационной службы, к которым относятся, в частности, построение дисковых массивов и настройка конфигурации сети.

«Эти процедуры включают в себя множество этапов, и, сделав всего лишь одну ошибку, вы поставите себя в весьма затруднительное положение, — пояснила Кир. — А поскольку соответствующие задачи периодически возникают вновь и довольно сложны, справиться с ними человеку непросто».

Проекты, призванные решить данные вопросы, можно разбить на две категории —виртуализация и организация автоматического управления и контроля. Они предполагают создание следующих компонентов.

  • SoftUDC. Программный центр данных, построенный по принципу коммунальных служб (Utility Data Center), представляет собой прототип виртуализации ресурсов сервера, сетей и систем хранения. Он формирует логический уровень между не зависящими друг от друга аппаратными средствами и единым, централизованно управляемым пулом ресурсов.
  • FAB. Объединенный массив строительных блоков (Federated Array of Bricks) включает в себя недорогое оборудование, соответствующее промышленным стандартам, и специальное программное обеспечение, упрощающее процедуру создания систем хранения. В каждом строительном «блоке» находятся несколько дисков и процессорный контроллер. Дополнительные блоки можно устанавливать по мере необходимости. При этом программное обеспечение, работающее под управлением операционной системы Linux, автоматически распределяет данные между блоками, обеспечивая необходимую степень избыточности для восстановления работоспособности в случае сбоя.
  • SLIC. Статистические средства обучения, формирования логических выводов и управления (Statistical Learning, Inference and Control) для определения отклонений в работе систем используют методы распознавания образов и вероятностные модели. В настоящее время исследования здесь ориентированы на решение проблем прогнозирования.
  • Интеллектуальный центр данных (Smart Data Cen?ter). Этот проект направлен на поиск способов охлаждения компонентов сверхплотного размещения (в частности, серверов-лезвий) с минимальными затратами электроэнергии. «Динамическое интеллектуальное охлаждение» предусматривает использование термических моделей, датчиков сетей и даже роботов, позволяя сократить сумму расходов на 70%. Кир не пугают технические трудности, но она признает, что пользователи весьма осторожно относятся к инициативам подобного рода. «Нежелание принимать новые технологии во многих случаях обусловлено человеческим фактором, — подчеркнула она. — Ведь люди пока не знают, что произойдет, почему же они должны доверять автоматизации?»

Долгосрочные цели

Если Кир работает сегодня над технологиями, которые вот-вот выйдут на рынок, то еще один ведущий сотрудник HP Labs Дункан Стюарт занимается тем, что по всей видимости не принесет никакой отдачи в ближайшие семь-десять лет. Исследователь-физик вместе со своими коллегами надеется создать компьютеры чрезвычайно малых размеров.

Уже более шести лет сотрудники HP Labs работают над принципиально новым подходом к организации вычислений, базирующемся на так называемой технологии перемычек (crossbar technology). Электрические схемы с перемычками HP создаются на молекулярном уровне и состоят из сетки проводников, на пересечении которых на программном уровне можно размещать различные элементы: резисторы, диоды, коммутаторы и т. д. Несколько лет назад исследователи HP показали, что подобные массивы можно использовать для изготовления памяти и простых логических схем, которые гораздо компактнее по сравнению с аналогичными схемами, выполненными на основе кремниевых транзисторов.

Задержка с созданием действительно работающих компьютеров обусловлена сегодня двумя основными причинами. Пока не найдено способа восстановления затухающего сигнала при его перемещении от одного логического затвора к другому, а также возможности инвертирования сигнала для выполнения булевой операции отрицания. При использовании кремниевых транзисторов обе эти задачи решаются без каких-либо затруднений.

В феврале в HP Labs наметился прорыв — было объявлено об открытии путей как восстановления сигнала, так и его инвертирования с помощью пары элементарных молекулярных коммутаторов, объединенных в перекрестную защелку.

«Защелки — это своего рода клей, скрепляющий различные области памяти и логические механизмы внутри процессора, — пояснил Стюарт. — Это как раз тот недостающий компонент, который позволит выполнять все виды вычислений на молекулярном уровне. Сегодня мы уже близки к тому, чтобы построить самый микроскопический компьютер в мире».

Между тем производство обычных микросхем по мере уменьшения их размеров становится все сложнее и дороже. Ближайшие планы производителей полупроводниковых чипов предусматривают дальнейшее сокращение расстояний между проводниками в микросхемах памяти. С нынешних 90 нм к 2007 году оно должно уменьшиться до 65 нм, к 2010 году — до 45 нм, к 2013 году — до 32 нм и т. д.

«Все уже распланировано на ближайшие 12 лет, непонятно только, как реализовать эти планы, — отметил Стюарт. — Не исключено, что исследователям так и не удастся найти решение стоящих перед ними задач. И все это понимают.

Барьер в 32 нм открывает перед нами неплохие шансы реализовать некоторые из своих идей. Причем речь идет не о том, чтобы полностью отказаться от кремниевых транзисторов, а всего лишь о замене определенных устройств (например, памяти со сверхплотным размещением элементов) на уровне, расположенном поверх микросхем КМОП. В конечном итоге инженеры HP надеются, что размеры перекрестных устройств не будут превышать 3 мм.

Директор Центра нанотехнологий NASA Ames Research Center Мейя Мейваппан считает, что говорить об успехе еще слишком рано: «Все производители активно занимаются дальнейшим развитием КМОП-технологии, и в этом нет ничего нового и необычного. Что же касается перекрестной архитектуры, то она представляет собой совершенно новую концепцию, обладающую достаточным потенциалом для того, чтобы оказаться на лидирующих позициях при разработке электроники будущих поколений».

Одним из применений подобных компьютеров-лилипутов может стать изготовление крошечных датчиков — «пылинок», обладающих достаточно высокой мощностью для выполнения интенсивных вычислений.

«Если удастся создать компьютер площадью не более нескольких микрон, который сможет потреблять энергию из окружающей среды, то у нас появится возможность, к примеру, оснастить ярлыки RFID средствами шифрования, — заметил Стюарт. — Наиболее существенные из тех сдерживающих факторов, что видны из исследовательской лаборатории, лежат в области экономики. Нередко бывает, что даже вполне готовую технологию рынок еще не готов принять».

Поделитесь материалом с коллегами и друзьями