В начале сентября в Сан-Франциско состоялась девятая американская конференция разработчиков фирмы Intel

Собравшее около 5,5 тыс. человек мероприятие дало уникальный срез современного состояния микропроцессорной индустрии и ИТ-рынка в целом, позволило познакомиться с ближайшими и долгосрочными планами микропроцессорного гиганта. Телекоммуникационные технологии с каждым годом занимают все большее место в стратегии Intel. Ярким свидетельством тому стало выделение в этом году телекоммуникационной тематики в Intel Communications Alliance Summit 2004.

Точки перегиба

Открывая конференцию IDF Fall 2004, президент и директор по операциям корпорации Intel Пол Отеллини назвал две ключевые технологии, две точки роста. Они будут определять облик ИТТ-индустрии в ближайшие годы и обещают окончательно переломить кризисные тенденции первых лет нынешнего десятилетия. Одна из них связана с беспроводным широкополосным доступом, другая — с параллельной обработкой данных.

Как свидетельствуют оценки аналитических компаний, в 2001 году рынок микропроцессоров испытал значительное падение, а первые признаки подъема стали наблюдаться лишь в прошлом году. Практически те же процессы имели место в сегменте электронных компонентов для сетевого и телекоммуникационного оборудования. Согласно прогнозам, в текущем году будут восстановлены или несколько превышены показатели 2000 года — самого успешного за всю историю индустрии высоких технологий. Однако настоящими двигателями дальнейшего устойчивого роста должны стать успехи конвергенции, распространение цифровых технологий и расширение пользовательской базы.

Что касается конвергенции, главными показателями могут служить превышение объемов трафика данных над голосовым, более высокие темпы роста трафика данных (примерно на 56% ежегодно в течение ближайших трех лет), а также изменение в нынешнем году пропорций при продажах сотовых телефонов в пользу аппаратов с поддержкой передачи данных. Победное шествие цифровых технологий проявляется в стремительном росте как объема корпоративных данных, накопленных внутри любой организации, так и информации, доступной пользователям Всемирной паутины. В отношении перспектив роста абонентской базы Intel сделала свою позицию чуть более реалистичной: если в феврале к 1 млрд сетевых пользователей компания планировала добавить еще 5 млрд, т. е., по сути дела, всех жителей планеты, то теперь речь идет уже о 3 млрд. Правда, конкретные сроки приобщения этих людей к современным достижениям компьютерных и телекоммуникационных технологий остаются неопределенными.

Пока же компания сместила акценты с бесконечной гонки за рекордными показателями производительности на реализацию функций, в наибольшей мере востребованных пользователями, будь то средства обеспечения безопасности, системы поддержки беспроводного доступа или новый форм-фактор для настольных систем. Это фундаментальное изменение, относящееся не только к одной, пусть и очень крупной, корпорации, но и к индустрии в целом, привело к тому, что на конференции особое внимание было уделено концепциям цифрового дома и цифрового офиса.

Впрочем, ошибкой было бы думать, что технологии отошли на второй план — их роль в реализации амбициозных планов Intel трудно переоценить. Одна из технологий связана с гиперпоточными архитектурами и параллельной обработкой. Впервые анонсированная на IDF ровно три года назад и реализованная в ноябре 2002 года, технология гиперпоточной обработки к концу текущего года будет поддерживаться 55% выпускаемых клиентских станций и 100% серверов.

Дальнейшее развитие этого направления Intel видит в реализации персональных параллельных вычислений, играющих ключевую роль в построении цифрового дома и цифрового офиса. Они позволят реализовать приложения интеллектуального анализа данных в режиме реального времени на уровне персональных компьютеров. Как говорят руководители корпорации, при переходе к параллельным вычислениям процессор и компьютер меняются местами.

Для реализации идеи персональных параллельных вычислений в будущем году Intel намерена приступить к выпуску двухъядерных процессоров для серверов, настольных ПК и ноутбуков. Несколько позже для серверов будут выпущены процессоры с многоядерной архитектурой. Так или иначе, но в 2006 году, согласно планам Intel, не менее 40% персональных и по крайней мере 70% портативных компьютеров будут оснащены двухъядерными, а не менее 85% серверов — многоядерными процессорами. Более того, все последующие разработки фирма намерена вести с ориентацией на процессоры, архитектура которых содержит как минимум два ядра.

Другую технологию — поддержки 64-разрядных вычислений 32-разрядными процессорами семейства x86 (соответствующие расширения EM64T) — компания уже реализовала. Серверы и рабочие станции со средствами EM64T, работающие под управлением Windows или Linux, сегодня появились на рынке. В числе технологических направлений, на развитие которых компания также намерена сделать ставку в ближайшие годы, — информационная безопасность, повышенная надежность, технологии виртуализации вычислительных систем, средства повышения производительности кэш-памяти, наконец, новая архитектура коммутации, которая обещает найти применение в серверных комплексах, системах хранения и активном сетевом оборудовании.

На пути к стандартной коммутации

Технологии Advanced Switching Interconnect (ASI) довольно много внимания уделялось на февральской конференции IDF (см. Сетиhttp://www.osp.ru/nets/2004/04). За прошедшее время эта разработка, которая уже более года активно поддерживается Intel, существенно приблизилась к стадии использования в законченных продуктах. Вот почему ASI фигурировала в списке ключевых тем IDF и на сей раз.

Напомним, что ASI представляет собой надстройку над базовой технологией PCI Express — последней версией последовательной шины ввода/вывода. Она добавляет к PCI Express транзакционный уровень, который отвечает за гибкую инкапсуляцию трафика разных протоколов, передачу данных между одноранговыми узлами, динамическое изменение конфигурации, обработку многоадресных и широковещательных рассылок и пр. (рис. 1). При этом ASI поддерживает обмен трафиком в сетевых средах разной топологии, а способность инкапсулировать трафик любых протоколов более высоких уровней упрощает архитектуру сетевых устройств и, в конечном счете, уменьшает их стоимость.

Впрочем, на практике экономическая выгода от использования ASI связана не столько с архитектурными особенностями, сколько с тем, что в лице ASI индустрия получает, по сути, первый стандартизованный метод коммутации потоков данных в разных сетевых устройствах, будь то активное сетевое оборудование, системы хранения, серверы для операторов связи или встроенные системы. Переход на стандартизованную технологию взаимодействия отдельных компонентов через коммутирующую среду, которая должна прийти на смену многочисленным патентованным решениям разных фирм, обещает радикально изменить данный рыночный сегмент. А то, что подобная стандартизация приведет к удешевлению оборудования, специальных доказательств не требует.

Как мы уже писали, разработка спецификаций ASI началась в первой половине прошлого года, а в начале 2004 года консорциум Advanced Switching Interconnect Special Interest Group (ASI SIG) опубликовал окончательный вариант спецификации ASI 1.0. На нынешней конференции было организовано шесть учебных мини-курсов по технологии ASI. Ей был посвящен отдельный сегмент выставочной экспозиции, причем состоялись две демонстрации возможностей данной технологии и совместимости первых реализующих ее разработок. Участниками первой стали компании Intel, Xilinx и Agilent, второй — Altera и Modelware.

Поддержка стандарта ASI производителями растет день ото дня. За время, прошедшее после февральской конференции IDF, ряды консорциума ASI SIG пополнились примерно 20 новыми членами, общее же их число вплотную приблизилось к 60. Помимо Intel в состав организации входят такие известные фирмы, как Agilent, Alcatel, AMD, Cisco, Motorola, Nokia, Siemens, Sun, Unisys. Тем не менее авторами первых разработок в данной области, судя по всему, окажутся мало кому известные молодые компании. Часть из них использовали IDF для анонсирования своих будущих изделий.

Так, фирма Xyratex планирует выпустить в первой половине 2005 года масштабируемые микросхемы, которые обеспечат поддержку ASI в сетевых продуктах и устройствах хранения с разделяемыми системами ввода-вывода. Не исключено, что эти разработки найдут применение при реализации проекта создания масшабируемых интеллектуальных видеосерверов (Scalable Intelligent Video Server System, SIVSS), финансируемого Евросоюзом.

Примерно тогда же намерена приступить к производству ASI-компонентов для коммуникационных шлюзов и программных коммутаторов фирма StarGen. Как утверждает ее вице-президент по маркетингу и развитию бизнеса Вейд Эпплман, коммутационное оборудование, использующее технологию ASI, будет характеризоваться производительностью 100 Гбит/с.

В первом полугодии 2005 года готовятся выпустить свои ASI-продукты компании Vitesse и IDT. А GDA Technologies обещает, что компоненты, ориентированные на применение в IP-коммутаторах и полностью соответствующие спецификации ASI v1.1, станут доступными в ближайшие месяц-два. Наконец, уже в ноябре на рынке появятся законченные аппаратные и программные ASI-решения компании Modelware.

Полгода назад Раджив Кумар, президент консорциума ASI SIG, предрекал появление первых компонентов на основе архитектуры ASI в начале 2005 года, а готовых устройств — не ранее второй половины года. Кажется, темпы развития данной технологии и сделанные на IDF анонсы ряда компаний позволяют смотреть на этот прогноз с оптимизмом.

Активное управление

То, что на IDF Fall 2004 состоялись презентации, посвященные управлению сетевыми ресурсами, может показаться неожиданным. На рынке комплексных платформ управления и точечных решений уже яблоку негде упасть, а расстановка сил между основными игроками, вроде, давно определилась. Однако, наблюдая за последовательным (и весьма успешным) вторжением микропроцессорного гиганта в новые для него технологические и маркетинговые ниши, перестаешь сомневаться, что и в данном сегменте Intel найдет для себя достойное место.

На сентябрьском IDF компания впервые представила технологию активного управления (Active Management Technology, AMT). Она обещает предложить ИТ-менеджерам новый уровень дистанционного контроля за подключенными к сети серверами и клиентскими компьютерами, причем даже теми, которые не прошли стандартную процедуру сетевой регистрации, неактивны (например, в силу сбоя жесткого диска) или вообще выключены. Внедрение AMT позволит заметно повысить эффективность управления ИТ-ресурсами, сократить время простоя вычислительных систем и число выездов технического персонала в удаленные офисы, а значит, уменьшить операционные расходы. По оценкам Intel и независимых аналитических компаний, организации тратят до 80% своих ИТ-бюджетов на поддержание существующей инфраструктуры в работоспособном состоянии и только 20% — на ее развитие в соответствии с потребностями бизнеса. Повышение эффективности администрирования позволит направить высвободившиеся ресурсы на решение стратегических задач.

Конечно, подобные идеи не новы для рынка платформ сетевого и системного администрирования, и в данном отношении корпорация вряд ли может претендовать на «открытие Америки». Примечательно, однако, каким образом Intel намерена реализовать задуманное на практике.

Согласно распространенной компанией информации, технология AMT будет интегрирована в специальным образом защищенные аппаратные и микропрограммные средства. Это позволит предотвратить преднамеренное или неумышленное хищение оборудования, а также программных агентов, поддерживающих удаленный контроль или защиту от компьютерных вирусов. Связь между компонентами AMT будет осуществляться по соединениям вне основной полосы пропускания и независимо от операционных систем, установленных на удаленных компьютерах. Последнее означает, что доступ к серверу или клиентской станции окажется возможным, даже если установленная на нем ОС по каким-то причинам будет неактивной.

Дабы сделать AMT и другие технологии управления доступными на самых разных платформах, от мобильных телефонов до серверов, Intel дала старт программе CPMP (Cross Platform Manageability Program). Она нацелена на разработку единых согласованных интерфейсов, протоколов и наборов функций путем расширения существующих стандартов и технологий в области администрирования. Кроме того, для рыночного продвижения технологии AMT фирма сформировала специальную рабочую группу, которая планирует представить первую версию индустриального стандарта к ближайшей весенней конференции IDF.

AMT логичным образом венчает спектр технологических инициатив, которые направлены на реализацию концепции цифрового офиса и адресованы бизнес-пользователям. Как известно, ранее Intel представила разработки в области защиты компьютеров от сетевых атак (кодовое название технологии — LaGrande) и виртуализации на аппаратном уровне (Vanderpool). Новая разработка Intel уже нашла поддержку у ряда производителей ПО. На выставке, проходившей в рамках IDF, компании Altiris, BMC Software, Check Point, Computer Associates и LANDesk Software представили первые основанные на AMT решения, которые предназначены для удаленного администрирования, управления безопасностью, выполнения диагностических и учетных процедур.

Internet вчера и послезавтра

Все чаще раздаются заявления, что Internet достиг потолка своего развития. Авторы одной из статей, опубликованных около года назад в американском журнале Technology Review, сравнивают современную Сеть с автомобилем Buick образца 1973 года: даже установив подушки безопасности и систему управления впрыском топлива, вы не сможете кардинально обновить эту морально устаревшую модель. Появление Web и систем электронной коммерции, потоковой передачи мультимедиа-трафика и видеоконференц-связи не отменяют того факта, что инфраструктура Internet осталась на уровне начала 90-х годов.

Всемирная паутина в ее сегодняшнем виде сталкивается с целым букетом проблем. Взрывообразный рост объемов передаваемого трафика и количества подключаемых к сети компьютеров выявил недостаточность полосы пропускания и адресного пространства, трудности с преодолением пиковых нагрузок и нестабильность качества сервиса. Internet пока не может похвастать высокой надежностью функционирования: в нем по-прежнему есть многочисленные точки потенциальных сбоев, изменение его характеристик остается непредсказуемым, сегменты часто не соответствуют друг другу по уровню надежности и производительности, а для поддержки высокой доступности сервисов требуются значительные затраты. Острота проблем с обеспечением безопасности нарастает день ото дня. Нерешенными остаются множество вопросов, связанных с доступностью сетевых услуг и юридическими аспектами.

По мнению Патрика Гелсингера, старшего вице-президента и главного технического директора Intel, корни накопившихся проблем следует искать в ограниченности Всемирной сети с архитектурной точки зрения. Преодолеть же ее в современных условиях совсем непросто. Согласно прозвучавшим на IDF оценкам, до 60% внутреннего валового продукта США прямо или косвенно связано с Internet. Огромная роль Internet в экономике многих стран привела к тому, что операторы просто не могут себе позволить внедрять в существующую инфраструктуру новые протоколы: это грозит резким падением производительности сети или недоступностью отдельных услуг. В сложившейся ситуации едва ли не единственный способ преодоления перечисленных проблем — реализация наложенных протоколов и сервисов, призванных обеспечить постепенную эволюцию Internet к качественно иному состоянию. По мнению руководителей Intel, именно такому сценарию должно подчиняться построение Internet следующего поколения.

На практике это требует принципиально нового взгляда на организацию инфраструктурных и пользовательских сервисов, разработку платформы для их внедрения и превращения Сети в коммуникационную среду, способную быстро адаптироваться к изменяющимся условиям. Данный подход был положен в основу проекта PlanetLab (www.planet-lab.org). По сути, PlanetLab представляет собой сеть компьютеров, размещенных в разных странах и соединенных друг с другом. Таким образом, создается тестовая среда для разработки и внедрения сетевых сервисов в буквальном смысле планетарного масштаба, т. е. приложений, ареал действия которых охватывает значительную часть территории земного шара.

Есть мнение, что некоторые из сервисов, создаваемых в сети PlanetLab, окажут на Internet такое же воздействие, какое некогда оказал World Wide Web. В новой Сети существующая коммуникационная инфраструктура будет дополнена значительными вычислительными ресурсами. Последние окажутся распределенными по сети, что позволит предоставлять услуги в самых разных ее точках. Приближение ресурсов к тем сетевым сегментам, где они наиболее востребованы, позволит снять остроту проблемы пиковых перегрузок.

Концепция PlanetLab была разработана Дэвидом Каллером из Калифорнийского университета в г. Беркли и Ларри Петерсоном из Принстонского университета. Проект PlanetLab запущен в августе 2002 года при поддержке Intel, которая предоставила для него 100 первых вычислительных узлов и ПО, площади для размещения оборудования, выделила гранты для нескольких крупных американских университетов, проводящих связанные с PlanetLab исследования, и обеспечила сопровождение проекта.

Поначалу сеть PlanetLab, которую вполне можно рассматривать как наложенное приложение, объединяла 41 сайт в семи странах. Сегодня в ней — более 180 сетевых точек, разбросанных по 22 странам. Согласно планам Intel, благодаря привлечению новых организаций к участию в проекте, сеть должна обрести полную самостоятельность, избавиться от непосредственной зависимости от самой Intel. Собственно, решающий шаг в этом направлении уже сделан: в июне прошлого года управление проектом перешло к организации PlanetLab Consortium, созданной в стенах Принстонского университета. Среди ее членов сегодня такие компании, как Hewlett-Packard и Google, а финансовую поддержку проекту оказывает Национальный научный фонд США (NSF).

В числе сервисов, которые были в первую очередь развернуты в PlanetLab, — приложения глобального мониторинга тенденций в изменении параметров Internet-трафика, средства перемещения сервисов поближе к пользователям, приложения для организации распределенных хранилищ данных и услуги, реализующие концепцию персональной мобильности. Кроме того, в рамках PlanetLab корпорация Intel поддерживает несколько собственных исследовательских проектов. Это Public Health for the Internet (повышение уровня безопасности и надежности путем мониторинга состояния Сети из множества разбросанных точек), Delay Tolerant Networking (предоставление доступа к Internet пользователям из развивающихся стран), OpenHash (упрощение разработки высокораспределенных приложений и работы с ними пользователей), Place Lab (приложения, «привязанные» к местонахождению пользователя).

Содержание исследований в рамках проекта PlanetLab вселяет уверенность в том, что Internet перейдет на качественно новый уровень, характеризующийся совершенно иной степенью информационной производительности и невиданным доселе многообразием сервисов. Открытым остается лишь вопрос, когда именно это произойдет. Не исключено, что в ближайшие два-три года изменения в Сети останутся незаметными для подавляющего большинства пользователей, тогда как проблемы будут ощущаться все острее. Но пройдет еще несколько лет, и облик Всемирной сети станет лишь отдаленно напоминать ту среду, которая сегодня ассоциируется со словом Internet.

Представляя участникам IDF новые технологии и продукты, знакомя их с перспективными разработками ее исследовательских подразделений, корпорация Intel не только делает достоянием общественности собственную рыночную траекторию, но и определяет направление развития всего ИТТ-рынка, причем подчас — сразу на несколько лет вперед. Тематика IDF поистине необъятна. Двухъядерные процессоры Montecito и Yonah, разнообразные технологии для цифрового офиса и цифрового дома, инициатива Universal 3D (аналог стандарта JPEG для трехмерной графики), многополосная OFDM-модуляция, спецификация шины Serial ATA, регламентирующая пропускную способность 3 Гбит/с, и первые продукты на ее основе, шина ввода-вывода PCI Express, перспективные технологии энергосбережения, новая технология оперативной памяти с полной буферизацией... Кажется, список можно продолжать бесконечно.

Рис. 2. Доля ноутбуков, оснащенных адаптерами беспроводных сетей

Наконец, как и в прошлый раз, огромное внимание на конференции было уделено технологиям и системам беспроводной связи, а также их поддержке на уровне настольных и мобильных компьютеров (рис. 2). Но об этом — в следующей публикации.

Поделитесь материалом с коллегами и друзьями