Internet-революция завершилась, завалы разобраны, и мы, вроде бы, начинаем приходить в себя. Да, экономика по-прежнему переживает череду невнятных всплесков и незначительных спадов. Технологический ее сектор все также невыразителен, а уровень безработицы остается высоким.

Тем не менее, мы можем разжечь пламя новой революции. Я намерен представить проект трансформации Internet в лигу Суперсетей (SuperNet). Эта революция откроет совершенно новые перспективы как для крупных, так и для небольших предприятий, и может уберечь нарождающийся мир Web-служб от множества сложных проблем, связанных с надежностью и безопасностью. Мы можем снизить расходы на работу больших сетей, выпустить новые виды приложений реального времени и начать создавать другие виды приложений для решения таких задач, как мониторинг электросетей или руководство войсками во время военных действий, т. е. приложений, для которых Internet совершенно не подходит.

Увы, мое предложение предполагает кардинально иной путь, нежели тот, которым движется Internet сейчас. Техническая сторона вопроса, по всей видимости, не вызовет никаких затруднений. Самая сложная проблема связана с политикой вокруг Всемирной Сети и c сообществом, которое определяет ее будущее. Однако эффект от реализации предлагаемого плана может оказаться столь грандиозным, что я хотел бы подробно изложить свои аргументы и узнать мнение сообщества. Если мы все придем к единому мнению, то сможем воплотить это предложение в жизнь.

Как начинаются революции

Что способно породить новый всплеск на Internet-рынке? По прошествии почти десяти лет с момента массового появления «доткомов» стало ясно, что бум этот был спровоцирован не только появлением Web-браузеров. Лично я всегда считал переломным событием выпуск Windows 95 — и не только потому, что после появления этой операционной системы акции Microsoft выросли в цене в 25 раз. Истинное значение Windows 95 состояло в том, что практически все буквально в одночасье перешли на эту ОС. Корпорация создала новую бизнес-модель, сформировав абсолютно новый рынок программного обеспечения для ПК и обеспечив себе огромный рост прибылей. Сразу стало понятно, что даже крупным компаниям не обязательно довольствоваться низкими темпами роста. При наличии правильного продукта и при должном с ним обращении компания может за очень короткий срок заработать сотни миллиардов.

Выпуск Windows 95 стал тем лекалом, по которому скроили Internet-бум. С распространением Web практически каждый крупный производитель, название которого приходит на ум, начал проводить конференции с участием множества специалистов, где разрабатывались стратегии, задающие следующее «направление главного удара». По прошествии времени особенно поражает то, насколько велико влияние Web на динамику этого нарождающегося рынка. Производители стали модернизировать свои продукты, адаптируя их к Web, и эти новые решения практически мгновенно перевернули рынок.

Уверен, именно это и стало основной движущей силой бума: изменения в технологиях, достаточно интересные для того, чтобы каждый захотел потратить деньги на модернизацию ИТ-инфраструктуры. Я не экономист, но именно экономические соображения послужили поводом к написанию данной статьи: стимулом еще одной Internet-революции вновь способно стать техническое предложение (хотя, возможно, оно и не приведет к заоблачному росту фондового рынка).

Из чего делается революция

Чтобы начать следующую революцию, технология должна быть не просто хорошей идеей, способной улучшить этот мир. Необходима технология, в которой будет что-то интересное для каждого: нам требуется не эволюционное изменение, а революционный переворот. Если бы вы хотели сделать верную ставку, то фаворитами на этих бегах могли бы стать Web-службы, grid или адаптивные системы. При этом вряд ли найдется смельчак, который поставит на одноранговые сети (peer-to-peer, P2P). Каковы шансы каждой из новых технологий?

Web-службы

Web-службы — вот самое последнее из проявлений продолжающейся революции. Объектно-ориентированные методологии спровоцировали значительный рост скорости разработки программ, поскольку они поддерживают повторное использование кода и упрощают задачу интеграции новых программных компонентов в более старые системы. Однако существующие объектные системы пока весьма далеки от совершенства. Web-службы обещают дать серьезный толчок вперед за счет стандартизации взаимодействий объектов на основе технологий, которые оказались столь успешными в случае Web-браузеров. Если на самом деле удастся это сделать, результаты будут поразительными. Так могут ли Web-службы стать основой следующего этапа совершенствования нашего сетевого мира?

Grid

Создайте гипотетическую смесь SETI@Home и Web-служб, и вы получите новое поколение слабо связанных, масштабных вычислительных систем, распределенных по Web. Поищите слово ?Grid?в Сети, и вы обнаружите множество ссылок на статьи, рассказывающие, к примеру, о том, что британский госпиталь предлагает свою систему трехмерного моделирования на основе магнитного резонанса для удаленного доступа посредством среды grid: специалисты могут использовать ее при проведении операций на мозге [1]. Но эта статья не объясняет, что происходит с системой при сбоях или каким образом обеспечивается защита инфраструктуры grid, а это само по себе очень непросто.

Вы можете сказать, что подобное умолчание свидетельствует о наличии более общей проблемы: самым разным Web-службам требуется защита, высокая готовность, средства самоуправления и так далее. Более того, вовсе не очевидно, что миру действительно нужны ресурсы для массивных распределенных вычислений. Если grid-инфраструктуры необходимы лишь для нескольких приложений, то сама по себе идея ее организации, возможно, и великолепна, но это далеко не все, что нужно для новой революции.

Адаптивные системы

Мир итак уже состоит из множества компьютерных систем, взаимодействующих друг с другом и взаимозависимых друг от друга. Предложения, подобные Web-службам и grid, могут перенести эту взаимозависимость на некий новый уровень. Это пугающая перспектива, ведь Web нельзя признать ни надежной, ни защищенной. Зачастую эта среда замирает в неком загадочном состоянии, и вернуть ее к жизни может только вмешательство специалиста. Для фланирующих по Сети пользователей Web-браузеров в этом нет ничего страшного, поскольку они всегда могут пойти выпить чашечку кофе или поискать нужную им книгу где-то еще. Но каким образом будет действовать сам компьютер в случае неожиданного прерывания связи или при получении некорректного ответа? Адаптивные технологии призваны сделать сеть интеллектуальной и тем самым сформировать новый вид распределенных систем, которые способны анализировать собственное состояние и восстанавливаться в случае каких-либо проблем. По большей части, причиной таких неординарных ситуаций становится собственно Internet, так что непонятно, каким образом адаптивные системы смогут устранить реальную проблему. Поскольку примеров благополучного разрешения таких ситуаций нет, то, по-видимому, это приведет к тому, что системы, основанные на Web-службах, окажутся непредсказуемо неповоротливы. Те же, кто решится строить на идеях Web-службам и grid свои информационные системы, подвергнут опасности жизнь человека во время хирургической операции, не говоря уж о множестве менее критических служб, от которых будут зависеть если уж не опасно больные пациенты, то, как минимум, корпорации.

Встроенные сенсоры

На первый взгляд, интеграция множества интеллектуальных сенсоров в информационную среду кажется весьма неплохой идеей. Непонятно только, для чего они могут потребоваться. Они дешевы, но для того чтобы совершить следующую революцию, необходимо, чтобы миллиарды таких сенсоров стали использоваться повсюду. Все это действительно возможно — однако сеть таких сенсоров способна делать не так уж и много, по крайней мере, пока. Эта технология еще находится в зачаточном состоянии, и говорить о ее массовости попросту не приходится. Поэтому, хотя технологические достижения в этой области восхищают, мне кажется, что в ближайшее время здесь не появится ничего революционного.

Одноранговые системы

Разработчики протоколов P2P устранили все сколько-нибудь серьезные препятствия на пути масштабируемости, но лишь у очень немногих пользователей есть четко определенные бизнес-требования, предусматривающие использование десятков тысяч компьютеров. Старые подходы вполне приемлемы для обычных структур, объединяющих несколько сотен компьютеров. Я предполагаю, что Web-службы могут создать новое поколение систем, которые объединят десятки и сотни тысяч компьютеров. Тогда и потребуются новые инструменты, способные вести мониторинг общего состояния системы в реальном времени. Например, одна ведущая авиакомпания использует на 250 тыс. персональных компьютеров набор Web-служб, который развернут в централизованном центре обработки данных. Если приложения такого масштаба станут более распространенными, для их поддержки действительно потребуются технологии P2P. Тем не менее, не думаю, что P2P может стать первопричиной революции. На мой взгляд, это всего лишь инструментарий, который придется весьма кстати.

Что сулят Web-службы

ИТ-отрасль делает ставку на Web-службы. Вот один из примеров. Предположим, что в вашем любимом Internet-магазине приняли модель Web-служб. Сейчас пользователям нужны браузеры для того, чтобы перемещаться по сайту и выбирать нужные им товары. Завтра внедрение Web-служб может привести к тому, что любое компьютерное приложение, созданное любым сторонним производителем, сможет подключаться к информационной системе Internet-магазина. По существу, посредством интерфейсов Web-служб она станет доступной для взаимодействия с тысячами новых приложений, созданных, главным образом, независимыми разработчиками. С помощью этих приложений покупатели смогут приобретать товары буквально одним щелчком мыши. Иными словами, можно будет предлагать через Internet любые товары, не предпринимая при этом рискованных шагов наподобие создания еще одного Amazon.com.

В то же время, такой интерактивный магазин может предложить все виды базовых бизнес-служб: бизнес-логику, решения для управления цепочками поставок, планирование снабжения, финансовые услуги, инвентаризацию и т.д. Фактически, магазин может даже продавать модули расширения, чтобы позволить независимым разработчикам получать доступ к этим службам — апплеты, аналогичные тем, которые служат для открытия доступа к Web-страницам. Таким образом, существенно расширяется рынок для компаний, предлагающих базовые службы. При этом выиграют и небольшие фирмы, например, разработчик программного обеспечения, которому нужно найти способ помочь врачу своевременно обновлять запас лекарств.

Это лишь малая часть того нового мира, который могут сформировать Web-службы. Действительно, согласно прогнозам аналитиков, к концу текущего десятилетия годовой объем сделок, осуществляемых через системы на базе Web-служб, достигнет 3 трлн. долл. Конечно, большая часть этих денег придется на транзакции между компьютерами, но немало средств будет при этом потрачено и на инфраструктуру, необходимую для поддержки электронной коммерции. Десятки и даже сотни миллиардов долларов в год будет израсходовано на серверы, программные платформы и консалтинговые услуги. Такие показатели могут действительно оживить экономику, дать нашим старым друзьям работу и реально изменить положение вещей. Однако есть одно «но»: несмотря на то, что Web-службы обещают, в конце концов, позволить всему и всем взаимодействовать друг с другом, эта технология унаследует большинство проблем, с которыми мы сталкиваемся при использовании Web.

Системы на основе Web-служб не в состоянии обеспечить высокую готовность, и для них необходимо предложить действительно надежные гарантии целостности транзакций. Защита сетевой инфраструктуры превратилась в серьезную задачу, еще начиная с момента появления Internet. Связность, пропускная способность и величина задержек — все это зависит от Internet. Лишь очень немногие технологии высокой готовности, безотказной защиты и надежных гарантий целостности ориентированны на электронную коммерцию в той степени, какая необходима для того, чтобы они могли стать частью стандартов на Web-службы. Деятельность консорциума World Wide Web Consortium довольно консервативна и сосредоточена на том, чтобы выбрать наилучшие технологии Web и баз данных. И, скорее всего, W3C будет еще долгие годы придерживаться подобного подхода. Консорциум делает ставку на то, что Web-службы должны работать в существующем «интерьере» Internet, а это связывает ему руки.

Если мы не намерены выходить за рамки существующих технологий Internet, нам придется мириться с ограничениями инфраструктуры, идеально подходящей лишь для передачи электронной почты, пересылки файлов и поддержки работы в Web, не имеющей критически важного значения. Internet не дает гарантий качества обслуживания (quality of service, QoS) и, вероятно, не сможет их дать. Сетевая инфраструктура уязвима перед атаками, вызывающими отказ от обслуживания (denial of service, DoS), и даже небольшие проблемы могут вызвать продолжительный перерыв в работе. Обратите внимание: если мы используем ее в качестве основы, то, в конце концов, получим системы, не способные работать существенно лучше, чем банальные средства просмотра Web. Более того, каждый раз, когда возникает ситуация, в которой ваш браузер сообщает, что удаленная система не отвечает или возвращает неактуальные данные, на компьютере с Web-службами может возникнуть неустранимая ошибка.

В итоге мы сталкиваемся с настоящим парадоксом: Web-службы действительно могли бы добиться грандиозной цели, если бы мы могли заставить их работать надежно, но они не будут обладать нужными техническими характеристиками. Чтобы получить реальные преимущества, предприятиям необходимо использовать эти технологии повсеместно, но если они на это решатся, то их самые важные операции будут зависеть от межкомпьютерных взаимодействий, которые в любой момент могут оказаться в состоянии, требующем вмешательства человека для устранения возникшей ошибки. Хуже того, как только Web-службы получат широкое распространение, мы почти наверняка столкнемся с проблемами масштабирования, которые уже возникают в крупных центрах обработки данных, но еще не столь ярко проявляются в работе среднего предприятия.

Вывод неутешителен: ни одна из перечисленных технологий не имеет серьезных шансов стать катализатором новой революции. Все замечательные обещания Web-служб, скорее всего, так и останутся обещаниями. Реальная причина этого — и главная проблема — заключается в ограничениях самих технологий Internet.

Вопреки прогнозам

В течение десятилетий разного рода прорицатели сулили кончину Internet. Они утверждали, что в скором времени не хватит IP-адресов (к счастью, вовремя появились трансляторы сетевых адресов), что маршрутизаторы не справятся с нагрузкой (от этого удалось уберечься благодаря алгоритмам быстрой маршрутизации на основе префиксов) или что ненадежность сетевой маршрутизации измотает нас вконец (спасибо ребятам из Мичиганского университета, спасшим ситуацию, продемонстрировав, что ненадежность эта вызвана ошибками в отдельных реализациях маршрутизаторов). Сейчас мы то же самое слышим по поводу спама в электронной почте и DoS-атак.

Да, я оптимист. Я не думаю, что какая-то из этих проблем действительно способна нас остановить. Мои опасения намного сильнее. Я считаю, что действительно серьезным препятствием являются проблемы, связанные со «сквозной» надежностью и моделью защиты, которые давно уже стали своего рода фетишем для рабочих комитетов IETF, определяющих направление развития Сети. Наконец, я уверен, что эти проблемы можно решить.

За последние несколько десятилетий, если оценивать ситуацию в целом, Сеть изменилась кардинально. Но при всех этих изменениях сохранились самые главные предположения, положенные в основу Internet:

  • Сеть обеспечивает максимально возможную надежность, но ничего не гарантирует;
  • она должна предоставить один маршрут от точки A к точке B (если этот маршрут перегружен, то пользователь может и подождать);
  • можно быть уверенным в том, что пользователи не захотят предпринимать никаких атак на Сеть.

Сеть, по существу, — это черный ящик. Пользователям предоставляются прерывающиеся соединения и неравномерная полоса пропускания, и при этом их убеждают, что для них сделано все возможное. Проблема заключается в базовой модели, которая не меняется десятилетиями. Нам говорят, что связь не всегда является двусторонней — я могу разговаривать с вами, но вы, возможно, не в состоянии ответить, и обнаружить это, в сущности, нельзя. Считается, что любой способ определения ошибки «согласования» находится вне прерогативы Сети. Вы знаете, как лучше всего передавать ваши пакеты? Ну и держите свое мнение при себе: Internet это не интересует. Вам нужно что-то более надежное, чем IPSec? Терпите.

Web-службам такие технологии Internet не подходят, поскольку для них создается новое поколение приложений, которым могут потребоваться непрерывные соединения (и, как следствие, избыточная маршрутизация, не зависящая от пути), высокая степень защиты инфраструктуры и средства противодействия DoS-атакам. Нам следует ожидать появления новой волны протоколов, которые не смогут работать в дружественной к TCP манере, и это потребует активного использования многоадресной рассылки (multicast) для распространения уведомлений о событиях и обновления кэшированных копий данных, необходимых для быстрого ответа. Все это прямо противоречит превалирующему в отрасли отношению и существующей технологической базе. И что мы можем сделать?

Перекрывающиеся сети

Едва ли не каждый из нас имел дело с примером перекрывающихся сетей(overlay network) — мы называем их «виртуальными частными сетями». По существу, на фрагмент одной сети накладывается некоторая другая «виртуальная» сеть на той же самой платформе. Многие начинают верить в то, что настоящим решением некоторых из упомянутых мною проблем могут стать перекрывающиеся сети. Один из вариантов, так называемые устойчивые перекрывающиеся сети (resilient overlay networks, RON), предлагают исследователи Массачусетского технологического института. Проблема в том, что когда мы накладываем что-то на существующую Сеть, несовершенные каналы, на которых работает эта наложенная структура, порождают проблемы, которые мы как раз и пытаемся решить. Более того, если кто-то действительно попытается использовать RON или аналогичную технологию, базовый протокол, скорее всего, окажется не в состоянии ее поддерживать. Но запомните эту идею, чуть позже мы к ней вернемся.

Механизмы управления качеством обслуживания

Очевидный альтернативный подход связан с DiffServ или другими механизмами поддержки требуемого качества обслуживания, такими как RSVP. Но я не считаю подобные аргументы убедительными. Таким механизмам присуще те же проблемы, что возникают и в перекрывающихся сетях. Маршрутизаторы нарушают динамику потока пакетов, поскольку не знают, что пытается делать пользователь, и имеют дело с трафиком, формируемым из потоков из множества источников. К тому моменту, когда пакеты проходят маршрутизатор, они теряют некоторые из оригинальных свойств того потока, который пытался послать отправитель.

Предположим, что A заключил с Сетью контракт на передачу 10 пакетов в секунду для B, а затем начинает отсылать по пакету каждые 100 мс. Данные A должны быть переданы без проблем, не так ли? Не так. После прохождения этого потока через маршрутизатор «расстояние» между пакетами начинает меняться; некоторые пакеты несколько задерживаются, другие проскакивают мгновенно. Эта неравномерность при передаче пакетов означает, что поток данных больше не соответствует оригинальному контракту A с сетью, опираясь на который выполняют свое планирование DiffServ и RSVP. После прохождения потока через цепочку маршрутизаторов равномерность распределения пакетов внутри него будет существенно нарушена. Чем дальше мы отходим от A, тем значительнее динамика потока пакетов будет отличаться от указанного в контракте, в соответствии с которым A ведет передачу. Представим, как выглядит ситуация при загрузке данных для маршрутизатора, который обещал зарезервировать ресурсы для передачи 10 пакетов в секунду. A, по-видимому, будет недоволен тем, что по его контракту пересылается сразу, например, 30 пакетов за 250 мс, при том, что в течение следующих 2,75 с ему придется простаивать. Можем ли мы винить маршрутизатор за то, что он пропустит два или три из этих пакетов? Конечно, нет, поэтому говорить о качестве обслуживания не имеет смысла.

Вывод состоит в том, что современные технологии Internet не поддерживают те возможности обеспечения качества обслуживания, которые необходимы новому поколению приложений. Если мы создаем что-то на весьма шаткой основе, то никогда не получим надежные структуры, которым транснациональные корпорации могут доверить свои критически важные операции, не говоря уж о тех, которым провинциальные больницы могут доверить вашу жизнь.

Я никогда не занимался проблемами информационной безопасности, но если вы спросите Стива Кента (BBN Technologies) или Жене Спаффорда (CERT), они убедят вас в том, что Internet не в состоянии предоставить настолько надежную защиту, чтобы спаммеры и хакеры остались без работы. Корпоративные пользователи могут захотеть использовать Web-службы, но Internet никогда им этого не позволит.

Все сначала

По существу, как мне кажется, настало время создать Internet заново, заменив на SuperNet. Может быть, Суперсеть сможет добиться того, чего Сеть никогда не добивалась раньше, и вряд ли добьется в будущем. Но здесь мы сталкиваемся с политическими проблемами, о которых я упоминал вначале. Предположим, что мы, как сообщество, объединим силы и средства, необходимые для совершения этого шага. Даже если все согласятся, что эта идея заслуживает внимания, прагматичный наблюдатель найдет немало причин, объясняющих, почему это невозможно сделать сейчас и в обозримом будущем. Прежде всего, любое новое представление о Сети по-прежнему требует каким-то образом использовать миллиарды долларов, вложенные в существующую инфраструктуру, поскольку невозможно заменять это аппаратное обеспечение по частям. С другой стороны, спрос на «традиционные» услуги Internet будет по-прежнему высоким.

К счастью, возможно, существует способ разрешить этот парадокс. Давайте оглянемся назад и подумаем о том, как на самом деле реализуется Internet сегодня. Кто обеспечивает линии связи? Телекоммуникационные компании, конечно, предоставляют огромное количество волоконно-оптического кабеля и резервируют некоторую его часть для поддержки сетевой магистрали; немалое количество линий связи прокладывают и региональные провайдеры, особенно для обеспечения широкополосной связи.

Опускаясь до базового уровня, следует отметить, что маршрутизаторы часто разделяют входные данные самым примитивным образом: данные из MCI, данные из AT&T и так далее. Это позволяет телекоммуникационным компаниям реализовывать двусторонние соглашения, при которых, например, MCI передает в аренду полосу пропускания корпорации AT&T, а AT&T, в свою очередь, — компании France Telecom. Таким образом, уже существует способ распределения полосы пропускания, позволяющий разделять физическую телекоммуникационную сеть между видами трафика (голос или данные), а полосу пропускания — между ведущими поставщиками. Точно также определенные возможности распределения трафика имеют и крупные магистральные сети.

Я предлагаю использовать такого рода разделение для разбиения существующей физической инфраструктуры на небольшое число параллельных виртуальных сетей, каждая из которых получает свою долю общей емкости исходной сети. Одна из таких виртуальных сетей может поддерживать обычные Internet-протоколы, а другие — работать с модифицированными протоколами (вне зависимости от того, будут ли они изменены незначительно или кардинально), чтобы реализовать совершенно новые свойства. Эти новые сети могут выйти далеко за пределы нынешней функциональности именно потому, что они не будут вынуждены ограничиваться использованием только существующего поколения Internet-протоколов.

В результате, мы могли бы легко использовать имеющуюся архитектуру, поддерживающую резервирование полосы пропускания, для перекрытия некоторого числа сетей на разделяемых линиях связи и даже на разделяемых маршрутизаторах. Во многом так же, как мы разделяем современные компьютеры, мы могли бы использовать принципы разделения времени и в маршрутизаторах. Таким образом, можно преобразовать существующий «единый» мир Internet, работающий на существующей «единой» телекоммуникационной сети, в «лигу» SuperNet.

Почему SuperNet?

Если выделить Internet в отдельную сеть, мы не будем вынуждены использовать обычные правила маршрутизации, или правила защиты, на остальных перекрывающихся сетевых сегментах. Поскольку имеются выделенные, зарезервированные ресурсы, существует масса возможностей для создания маршрутизации в «сотовом» стиле, которая позволит гарантировать наличие избыточных путей между источником и адресатом, при этом предлагая приложениям значительно более надежные свойства из конца в конец. Мир, в котором мы можем создавать сети «с нуля» и использовать их параллельно с имеющимся оборудованием и каналами, кажется весьма заманчивым [2].

Благодаря выделенной емкости мы можем создать SuperNet с гарантированно более высоким качеством обслуживания (например, с доставкой данных в реальном времени), гарантированной готовностью (даже если отдельные каналы или маршрутизаторы выходят из строя) и надежной защитой. SuperNet могут содержать механизмы, позволяющие точно сообщать приложениям, на что они могут рассчитывать в плане задержки, предоставляемой полосы пропускания и искажений. Масштабируемые одноранговые технологии позволяют создать SuperNet с иными характеристиками; в частности, они могли бы помочь разработать систему для крупномасштабного мониторинга, управления и контроля, например, создать адаптивные управляющие системы для Web-служб.

Исследователи Калифорнийского университета в Беркли, скорее всего, захотят реализовать SuperNet для поддержки инфраструктуры Internet indirection infrastructure (i3), кардинально нового способа организации одноранговых сетей. Массачусетский технологический институт сможет объединить RON с DiffServ и создать мультимедиа-сеть, которая будет реально работать. Пентагон сможет использовать перекрывающуюся сеть для обеспечения сохранности военных секретов (конечно, нам они об этом не сообщат).

Откройте новые возможности для создания инновационных решений, и вы станете свидетелями нового бума на сетевом рынке, связанного с появлением новых видов высокоуровневых сетей, сосуществующих на инфраструктуре, которая сейчас, как известно, изобилует «темными» (неиспользуемыми) волоконно-оптическими кабелями и не позволяет операторам заработать достаточно денег.

Эти перекрывающиеся сети будут стоить довольно дорого, но при этом совершенно ясно, кто за них будет платить. Поскольку предприятия не в состоянии получить то, что им требуется, используя Web-службы в Internet, возникнет большой спрос на Web-службы, размещаемые на других платформах. Компании, безусловно, будут готовы заплатить за преимущества, которые им дадут эти мощные технологии.

Чтобы разработать и провести первоначальные испытания таких решений, необходимы какие-то государственные инвестиции в создание такого рода «инкубатора для предпринимателей». Исследователи могут опробовать в работе небольшое число финансируемых государством инфраструктурных сетей. По истечении определенного времени, которое потребуется для совершенствования и апробации, каждая SuperNet будет либо развиваться, найдет свою собственную область применения и станет приносить прибыль, либо эти ресурсы будут переданы конкурирующей группе специалистов. В результате, научные организации смогут дать шанс доказать свою состоятельность новым идеям наподобие i3. Но как только эти идеи начнут воплощаться в жизнь, дайте им возможность самим решить свою судьбу, и выяснить, смогут ли они стать прибыльными службами. Реальное мерило успеха — способность привлечь платежеспособных пользователей.

Необходимо полностью пересмотреть всю инфраструктуру; инновации не должны остановиться на маршрутизаторах. SuperNet могла бы предложить и стандартные Internet-службы, но может заменить или вытеснить их своими собственными службами, предоставив механизмы сетевого уровня, например, для мониторинга состояния компонентов и генерации сообщений об ошибках. Такие механизмы могли бы быть встроены в TCP, RPC и другие протоколы, тем самым, позволяя гарантировать согласованность и получение достоверных сообщений об ошибках при прерывании соединений. Мы сможем предложить службы сетевой топологии, призванные уведомлять о сетевой структуре и связывать ее с реальным миром. Также необходима точная и надежная синхронизация по времени и протоколы, которые могут предоставить временные гарантии для мультимедиа-трафика. Каждая SuperNet может сформировать собственный мир, соответствующий уникальным требованиям того или иного класса приложений.

Из искры возгорится пламя

Создание совокупности SuperNet вполне осуществимо. Конечно, те, кто вложил большие средства в Internet, сначала могут умышленно этому препятствовать, но и они, в конце концов, согласятся, как только поймут, что SuperNet способны принести им большую прибыль.

Мне кажется, что крупномасштабные, продуманные попытки создания SuperNet могут снова разжечь затухающее пламя революции распределенных вычислений. Дайте нам хотя бы одну SuperNet, и мы сможем преодолеть барьеры, стоящие на пути развития Web-служб. Даже с появлением небольшого числа SuperNet адаптивные вычисления могут стать реальностью, а интерактивные Web-службы — повсеместными. Мы предоставим пользователям видео телевизионного качества и аудио качества радио, без прерываний и искажений, а затем и инструментарий для совместной работы на корпоративном уровне. Мы сможем разработать механизмы высокой готовности, которые действительно работают, и масштабируемые механизмы обработки событий, для которых понятие «реальное время» действительно что-то значит.

Пришло время посмотреть правде в глаза. Мы остановились и никак не можем двинуться дальше. И причина остановки заключается в том, что от Сети требуют таких вещей, которые она не в состоянии выполнить, вещей, которые противоречат базовыми принципам, лежащим в ее основе. Тем не менее, это путь вперед, и он может привести к новому Internet-буму. Давайте обойдемся без тех, кто старается откровенно нажиться на популярности Internet. Настало время преобразовать Internet в лигу Суперсетей.

Литература
  1. L. Versweyveld, «3D Visualization in the Operating Room to Improve Accuracy of Tumor Removal», Virtual Medical Worlds Monthly, Oct. 2002.
  2. K. Birman, «Technology Requirements for Virtual Overlay Networks», IEEE Systems, vol. 31, no 4, July 2001.

Кен Бирман (ken@cs.cornell.edu) — профессор Корнеллского университета. К области его научных интересов относятся надежные распределенные компьютерные системы, надежный сбор и распространение информации, а также безопасность сложных распределенных систем.


Ken Birman, The League of SuperNets. IEEE Internet Computing, September — October 2003. IEEE Computer Society, 2003. All Right reserved. Reprinted. with permission.

Поделитесь материалом с коллегами и друзьями