Сотрудники IDG News Service в начале этого года посетили восемь главных перекрестков Internet, расположенных в разных уголках мира, чтобы узнать, кто и как управляет потоками данных во Всемирной сети.

Когда около полуночи в Японии трафик Internet нарастает, Яшуши Сано, который отвечает за работу японского участка Internet, вносит в него и свою лепту. Сидя дома в Йокогаме, он просматривает электронную почту и общается по чату с друзьями. В этот момент в тысячах километров от Японии, в Париже, Франк Симон замеряет послеобеденный трафик в Internet. Тем временем Майк Кэрролл приступает к работе на самом загруженном узле Internet, с трудом добравшись до офиса из пригорода Вашингтона по запруженным потоками машин улицам. Добро пожаловать во Всемирную сеть, которой управляют неизвестные широкой публике сетевые администраторы! Именно благодаря их усилиям по всему земному шару бесперебойно передаются гигабитные потоки данных.

Известно, что Всемирная сеть имеет децентрализованный характер, поэтому неудивительно, что точки обмена Internet-трафиком сильно отличаются друг от друга. Одни из них расположены в студенческих городках, другие — в офисных небоскребах. Некоторыми управляют некоммерческие организации, предоставляющие свои услуги бесплатно, а некоторыми — телекоммуникационные гиганты, взимающие тысячи долларов в месяц за соединение с Сетью. На части узлов персонал дежурит круглые сутки, а другие управляются дистанционно. Есть точки, где опорная сеть построена по технологии FDDI, и есть, где на основе Gigabit Ethernet или ATM. Но в одном все они похожи: выполняют важнейшую функцию — служат в качестве нейтрального информационного обменного пункта, услугами которого пользуются многие провайдеры Internet. Эти узлы (точнее, их администрация) не являются участниками договоров об обмене трафиком между провайдерами. Они только передают трафик.

Помещения, в которых расположены точки обмена трафиком, выглядят почти одинаково — скромно отделанные комнаты, заполненные множеством кабелей и высокими стойками с маршрутизаторами и коммутаторами. Так как от этих узлов прежде всего требуется безотказность, в них соблюдаются серьезные меры безопасности. Сетевые администраторы, контролирующие работу узлов, имеют все средства обеспечения пропускной способности, дублирующие системы и инструменты сетевого мониторинга, необходимые для того, чтобы справиться с любыми неожиданностями и поддержать непрерывный доступ в Internet.

День начинается в Токио

В половине восьмого утра Яшуши Сано, который возглавляет отдел технического обеспечения компании Japan Internet Exchange (JPIX), садится на электричку в пригороде Йокогамы и пытается вздремнуть во время полуторачасовой дороги на работу. Он первым приезжает в офис, а вскоре появляются менеджер по маркетингу Тошики Уеда и девять остальных сотрудников, занятых сопровождением единственной японской точки обмена Internet-трафиком. Компания JPIX была создана в 1997 г. объединенными усилиями ведущих японских провайдеров Internet и поставщиков оборудования, таких как AT&T, Fujitsu, NEC, а также Kokusai Denshin Denwa (KDD, является крупнейшим в Японии оператором международной связи). JPIX находится в здании KDD, расположенном в деловом районе Токио.

По вторникам в JPIX в десять утра проходит еженедельное совещание. Сегодня Сано рассказывает сотрудникам о планах подготовки систем JPIX к 2000 году. После совещания Сано и Уеда садятся за свои рабочие станции и с помощью браузеров проверяют работу коммутаторов. Они выводят на экраны диаграммы, отображающие объем трафика, передаваемого Internet-службой BigGlobe компании NEC, а также мигающие точки, представляющие работу портов маршрутизаторов в реальном времени. Из окон офиса на 19-м этаже открывается прекрасный вид на Токийский залив, и в хорошую погоду Уеда иногда рассматривает горизонт в бинокль, который всегда лежит на подоконнике. Но сегодня небо покрыто облаками, и Сано с Уеда, убедившись в стабильности работы систем JPIX, спокойно завтракают на своих рабочих местах. На всякий случай Сано носит с собой пейджер, по которому в критической ситуации его можно найти в выходные дни и в нерабочее время, но, по его словам, его еще ни разу не тревожили.

К полуночи, когда пользователи уже добрались с работы домой и начинает действовать льготный тариф на доступ в Internet, трафик на узле JPIX обычно вырастает до 320 Мбит/с. Второй пик приходится на промежуток между полуднем и часом дня, так как многие служащие любят путешествовать по Internet во время обеденного перерыва. «Смотрите, насколько преданно японцы относятся к своей работе, — говорит Уеда, показывая на диаграмме, как резко снижается трафик после часа дня. — Они прекращают развлекаться в Web и принимаются за дело».

Основу JPIX составляют четыре коммутатора Gigaswitch компании Compaq, объединенные сетью FDDI. Каждый из них имеет пропускную способность 3,4 Гбит/с. Около них расположены кроссовые стойки и аппаратные шкафы с Ethernet-коммутаторами Cicso Catalyst 5000, которые поддерживают связь между 20 провайдерами Internet.

В половине седьмого рабочий день Сано заканчивается. Его коллега в Гонконге тоже скоро пойдет домой, так как Гонконг отстает от Токио лишь на один час. К этому моменту у сетевых администраторов ведущих европейских точек обмена трафиком рабочий день только начнется.

Продолжение дня в Гонконге

Если узел в Токио имеет городской и корпоративный характер, то в Гонконге, напротив, сельский и научный. С 1995 г. поддержкой узла Hong Kong Internet Exchange (HKIX) занимаются в Гонконгском Китайском университете. Основная цель HKIX — не загружать международные каналы локальным трафиком. Если бы этого узла не было, 50 провайдерам Internet, включая AT&T и UUNET, пришлось бы направлять гонконгский трафик на узлы в США, что очень дорого и неудобно.

Сейчас HKIX предоставляет услуги бесплатно, однако вскоре обслуживание, возможно, станет платным, так как университету урезали бюджет. Тем не менее в помещении HKIX царит весьма деловая атмосфера, более характерная для офиса Internet-провайдера, обслуживающего конечных пользователей, чем для высшего учебного заведения. В большом, скромно обставленном и хорошо освещенном зале университетского ВЦ установлены коммутаторы и маршрутизаторы в застекленных шкафах кремового цвета. Основу HKIX составляют коммутатор Cisco Catalyst 5500 и маршрутизатор Cisco 7507. Чтобы подключиться к этому узлу, провайдеры должны арендовать как минимум одну выделенную линию T1 и установить в университете маршрутизатор. По словам руководителя HKIX Чиху Чена, за последние годы узел значительно вырос. Когда он был организован, для соединения маршрутизаторов использовался коаксиальный кабель. Затем внутренняя сеть была переведена на неэкранированную витую пару, появился коммутатор Cisco 3000, потом 5000 и, наконец, 5500. Маршрутизатор Cisco 2501 был заменен на 7507.

Два инженера — Уолтер Ли и Йен — в основном занимаются поддержкой университетской сети, однако выделяют несколько часов в неделю на контроль за работой точки обмена Internet-трафиком. «Мы только что закончили диагностику коммутатора, — сообщил Йен. — Сейчас нагрузка минимальная». Кроме того, работающие в три смены сетевые операторы круглые сутки следят за загрузкой HKIX и отвечают на звонки провайдеров. Как любой подобный узел, HKIX не предназначен для передачи трафика на точки обмена в других странах, он даже не поддерживает с ними постоянную связь. Однако руководители HKIX находятся в тесном контакте с гонконгскими провайдерами Internet и регулярно сообщают им сведения о производительности их маршрутизаторов.

HKIX — небольшая точка обмена трафиком, пик которого приходится на полночь, но и тогда не превышает 60 Мбит/с, что гораздо меньше максимальной пропускной способности узла, составляющей 3,6 Гбит/с. Ли и Йен согласны с тем, что сейчас Internet функционирует стабильно. «Работа Всемирной сети не является результатом усилий одной компании. Напротив, это — плод сотрудничества многих организаций», — заявил Йен. Ну а в случае отказа HKIX крупнейшие гонконгские провайдеры могут воспользоваться собственными линиями связи с узлами в США и перенаправить на них свой трафик.

Амстердам просыпается

Приблизительно в то время, когда руководитель JPIX Сано собирается домой, в Амстердаме начинается день. Питер Хвизер, возглавляющий Amsterdam Internet Exchange (AMS-IX), неторопливо едет на велосипеде вдоль плотин, направляясь на работу. Он оставляет свое транспортное средство у дверей Национального вычислительного центра SARA, обслуживающего несколько голландских университетов, входит в низкое кирпичное здание и идет в свой кабинет, чтобы выпить первую за день чашку черного кофе.

Ethernet в Амстердаме.
На амстердамском узле обмена трафиком провайдеры

могут по выбору подключаться к двум Ethernet-

коммутаторам Cisco Catalyst 5000, расположенным в

зданиях, находящихся одно напротив другого с двух

сторон улицы.

Хвизеру и его группе сетевых инженеров предстоит трудный день. К AMS-IX, единственной в Голландии точке обмена Internet-трафиком, подключены 50 провайдеров. Кроме того, AMS-IX управляет сетями центра SARA и нескольких частных операторов. AMS-IX занимает две комнаты, заполненные серыми шкафами, в которых находятся маршрутизаторы провайдеров. В настоящее время коммутатор Cisco Catalyst 5000, являющийся основой этого узла, обрабатывает трафик со средней скоростью 182 Мбит/с. По словам Хвизера, хотя за последний год трафик в AMS-IX утроился, сеть еще далеко не достигла предела своей пропускной способности. Даже в самые пиковые часы (рабочее время и два часа вечером) используется только 10% мощности.

Работа узла AMS-IX организована следующим образом. По интерфейсам Ethernet на 10 или 100 Мбит/с провайдеры подключают свои маршрутизаторы к одному из двух коммутаторов Cisco Catalyst 5000, которые в свою очередь соединены между собой по интерфейсам Gigabit Ethernet (основной) и Fast Ethernet (запасной). Один коммутатор находится в SARA, а второй располагается через дорогу в здании компании-оператора сети Национальной физической лаборатории (NIKHEF).

Узел AMS-IX был создан в 1992 г., когда три провайдера Internet подключились к сети Ethernet SARA и NIKHEF. В настоящее время с AMS-IX связаны такие крупные провайдеры, как @Home, Benelux, Planet Online, AT&T, Demon Internet и EUNet. Сетевые инженеры дежурят с восьми утра до восьми вечера, отвечая на звонки провайдеров. Ночью дежурит один человек, который имеет бипер (персональное устройство тонального вызова). Однако, по словам Хвизера, за всю историю существования AMS-IX сбоев практически не было, поэтому провайдеры редко обращаются со своими проблемами. Единственный отказ произошел в прошлом году, когда рано утром вышла из строя сеть питания. Меньше чем через три часа узел снова был готов к работе. Никто из провайдеров не жаловался, возможно, благодаря тому, что их абоненты в это время еще спали.

Париж приютил SFINX

Как здесь обстоят дела с безопасностью? Очень хорошо. Каждый входящий в здание французской точки обмена Ethernet-трафиком (SFINX), расположенной в центре Парижа в одном помещении с France Telecom, должен показать свой пропуск охраннику, сидящему за толстым стеклянным барьером. Работой узла управляет государственная телекоммуникационная организация Renater, которая заключила субдоговор с France Telecom.

SFINX, пропускающий через себя 70% Internet-видеотрафика, генерируемого во Франции, занимает два этажа в здании France Telecom. На одном из них установлено собственное оборудование SFINX, и туда допускаются только сотрудники France Telecom. На другом размещены устройства провайдеров, которые сами их устанавливают, конфигурируют и обслуживают. Эти операторы подключаются к SFINX по интерфейсам Ethernet на 10 или 100 Мбит/с. Клиенты, использующие оборудование узла SFINX, подключены к нему по интерфейсу на 10 Мбит/с. Хотя провайдеры с собственным оборудованием контролируют свой трафик самостоятельно, Renater следит за трафиком всех без исключения провайдеров с помощью программной системы контроля за качеством обслуживания.

Сотрудники работают в две смены по 12 часов. В более загруженную дневную смену дежурят как минимум два инженера. Однако, как и сотрудники других точек обмена, они не слишком завалены работой. По словам одного инженера, оборудование функционирует без сбоев, поэтому техническому персоналу практически нечего делать, кроме как следить за индикаторами маршрутизаторов и помогать тем клиентам, которые время от времени заходят проверить свое оборудование.

Следует отметить еще одно сходство с другими точками обмена. Это — феноменальный темп роста объема трафика. Когда в 1994 г. Renater организовала SFINX, в сети был только один коммутатор, а клиентов — всего трое. Второй коммутатор появился в 1996 г., а третий — в 1997-м. В настоящее время к SFINX подключены 36 провайдеров Internet. Сведений о пропускной способности сети получить не удалось, но, по словам представителей Renater, SFINX может поддержать 60 провайдеров. Хотя на данный момент мощности оборудования достаточно, Renater собирается в конце этого года открыть еще одну точку обмена — SFINX 2. Директор Renater Дени Вандром не сомневается, что SFINX справится с требованиями клиентов. Менее уверен он в том, что небольшие провайдеры выдержат конкуренцию. «Крупные операторы договариваются о сопряжении своих сетей, с мелкими же никто не хочет разговаривать. Через несколько лет останутся только несколько ведущих компаний».

Один в Лондоне

Пройти троекратную проверку службы безопасности в здании Telehouse, в котором расположен узел London Internet Exchange (LINX) не легче, чем попасть в штаб-квартиру военной разведки MI-6. Страх перед террористами, лавинным наплывом посетителей и выводом из строя источников питания заставил руководство организовать самую современную систему охраны в здании, где разместились несколько телекоммуникационных компаний и провайдеров Internet. Наличие многоуровневой системы безопасности, идентификационных карточек и секретных кодов подчеркивает важность того, что находится внутри. В самом деле, здесь располагаются все крупнейшие европейские и американские телекоммуникационные компании, а также оборудование, обрабатывающее более 90% Internet-трафика Великобритании.

Сегодня единственное живое существо в помещении LINX — это инженер Джерри Рейли, который работает за небольшим столом около одной из стоек. Однако и он пришел только для того, чтобы встретиться с репортером. Если бы не эта встреча, он не покинул бы офиса LINX в Питсбурге, находящегося в полутора часах езды от Лондона. Дело в том, что почти все проблемы точки обмена решаются дистанционно. Как это ни странно, но никто не работает непосредственно на том месте, где установлено оборудование. За функционированием узла круглосуточно следят три инженера, работая по очереди в три смены. Если возникает проблема, они получают уведомление по мобильному телефону, а затем либо срочно едут в здание LINX, либо, чаще всего, устраняют неполадки дистанционно. Если инженер оказывается вне пределов досягаемости, проблему решает сотрудник организации Telehouse.

Площадь помещения, где расположен узел LINX, не превышает 15 кв. метров. Почти все оно, кроме узкого прохода, занято стойками с коммутаторами и другим оборудованием. Основу LINX составляет маршрутизирующий коммутатор Packet Engines 5200 Gigabit. По словам исполнительного директора LINX, этот гигант может гораздо больше, чем просто обрабатывать трафик, поступающий на точку обмена. Дублирующая система построена на базе четырех коммутаторов: двух Plaintree Systems WaveSwitch 4800 и двух Cisco 5000. Вся система в целом имеет 70 портов, и к ней подключены 50 провайдеров Internet. Такая мощная конфигурация без труда справляется даже с пиком трафика, достигающим 400 Мбит/с, который, как правило, возникает в два часа дня. Нагрузка по рабочим дням практически одинакова, в выходные она немного снижается.

Как показывает практика, узел LINX никогда не выходит из строя. Хотя пару раз возникали незначительные сбои, вызванные тем, что сотрудник Telehouse случайно выключал источник питания, обслуживание клиентов не прекращалось ни на минуту.

Глобальный шлюз в Вирджинии

Весь штат узла MAE-East состоит из двух бывших военнослужащих и одного экс-полицейского. Может ли он обрабатывать 60% всего европейского трафика? Пожалуйста. Как насчет 40% американского трафика? Нет проблем. «Наш узел обладает достаточной пропускной способностью, и мы всегда готовы к работе», — сообщил бывший военный инженер Майк Кэрролл, ведущий технический специалист узла MAE-East, который принадлежит компании MCI WorldCom и расположен в пригороде Вашингтона. Название MAE, т. е. Metropolitan Area Ethernet, появилось в 1992 г., когда фирма MFS-Communications открыла первый узел доступа в Internet для поставщиков соответствующих услуг. Теперь MCI WorldCom, купившая MFS-Communications, управляет восемью узлами MAE, три из которых — на востоке, западе и в центре США — являются национальными узлами доступа, а остальные пять — региональными.

В отличие от расположенных в других странах точек обмена Internet-трафиком, предназначенных для локального взаимодействия провайдеров, узлы MAE-East и -West ориентированы на шлюзование международного трафика. В США, где информационные потоки самые большие, крупные провайдеры Internet на равноправных условиях обмениваются трафиком через многочисленные узлы доступа в Сеть (NAP), расположенные по всей территории США. Это позволяет лучше управлять передачей данных и подстраховаться на случай выхода из строя одного из узлов. Кроме того, такой режим просто необходим, поскольку NAP-узлы, принадлежащие конкурирующим компаниям, не передают трафик между собой. К тому же MCI WorldCom не разрешает провайдерам передают трафик по своей сети. Другими словами, если пара провайдеров захочет обмениваться трафиком как на MAE-East, так и на MAE-West, им придется подключиться к каждому узлу.

Пропускной способности MAE-East вполне достаточно, чтобы справиться с существующей нагрузкой. MCI WorldCom установила на MAE-East и -West по три ATM-коммутатора Cisco StrataCom BPX, объединив их сетью FDDI. Компания использует параллельные сети, стараясь перевести своих текущих клиентов с FDDI на ATM и привлечь к ATM новых заказчиков.

Узел MAE-East расположен в трех комнатах, оборудованных серьезными средствами безопасности. В первой за стеклянной стеной находятся кабели, через которые поступает трафик от клиентов (в их числе — AT&T, Sprint, Cable and Wireless и Quest). Агрегированный трафик по волоконно-оптической системе SONET направляется со скоростью 10 Гбит/с на FDDI и ATM-коммутаторы. Во второй комнате расположены 80 шкафов, выкрашенных в фабричный желтый цвет, — в них находятся маршрутизаторы и другое оборудование провайдеров. В третьей установлены ATM-коммутаторы, соединенные волоконно-оптическими каналами OC-12. Каждый коммутатор — величиной с домашний холодильник и имеет по 48 портов DS-3. Кроме того, там же стоят коммутаторы FDDI почти вдвое большего размера и, наконец, самое большое устройство — колоссальный кондиционер.

Приблизительно в пять вечера трафик на MAE-East достигает своего пика — 2,1 Гбит/с. Это огромный объем, который намного превосходит трафик, передаваемый рассмотренными ранее узлами (в Токио — 320 Мбит/с, а в Лондоне — 400 Мбит/с).

ATM правит балом в Чикаго

На тихой улице в деловой части города расположен чикагский NAP оператора Ameritech — самое перегруженное место во всей Internet. На этом узле установлены три ATM-коммутатора фирмы Asсend, которые каждый день пропускают по 6 Тбайт информации, т. е. вдвое больше, чем в начале прошлого года. Гигантский объем трафика, а трехэтажное здание, в котором расположен NAP, кажется заброшенным. Его заполняют бесконечные ряды коммутаторов и мультиплексоров SONET, в основном предназначенных для телефонной сети Ameri-tech. Не заметно никаких следов присутствия человека, кроме большого металлического стола и пары потертых стульев. Стол пустой, а на стенах ничего не висит.

ATM в Чикаго
Крупные провайдеры Internet подключают свои опорные

сети к чикагскому узлу доступа в Сеть по каналам с

пропускной способностью до 622 Мбит/с. Для обмена

трафиком между провайдерами служат постоянные

виртуальные каналы, организуемые с помощью АТМ-

коммутаторов фирмы Ascend. При этом любой провайдер

может отказаться от получения трафика от какого-либо

другого поставщика услуг Internet.

Безлюдье такое же, как на лондонском узле, и по той же причине: управление каналами связи осуществляется дистанционно из технического центра, расположенного в штате Мичиган, а мониторинг коммутаторов — из центра сетевого управления, находящемся в Иллинойсе. Тем не менее в рабочие часы начальника отдела эксплуатации Кевина Питерсона можно часто найти на узле. Несмотря на то, что это здание не является его основным рабочим местом, он приходит, чтобы проверить каналы связи. В остальное время за функционированием NAP следят операторы из центра сетевого управления. В случае появления проблем они могут по пейджеру вызвать Питерсона или какого-нибудь другого менеджера по эксплуатации.

Однако Питерсон не припомнил ни одного такого случая. По его словам, большинство провайдеров, международных научно-исследовательских организаций и правительственных структур, которые используют этот NAP, внимательно следят за своими каналами связи и своевременно заменяют оборудование, чтобы избежать перегрузки. Для иллюстрации Питерсон показал рабочую станцию с установленной системой OpenView компании Hewlett-Packard для подсчета числа ячеек ATM, передаваемых этим узлом. Изображение на экране указывает, что из 79 ATM-портов только на двух теряются ячейки из-за перегрузки. Как правило, причиной возникновения перегрузки является не недостаток пропускной способности ATM-коммутатора, а передача одним из провайдеров слишком мощного трафика на маршрутизатор другого провайдера. Масштабируемость ATM позволяет легко увеличивать число портов и повышать их быстродействие. Это — большое преимущество, которое Ameritech получила пять лет назад, когда перешла на ATM.

Возможности первоначально установленных каналов DS-3 уже перестали удовлетворять потребностям большинства клиентов NAP. Теперь почти все они подключены к узлу с помощью каналов OC-3, обеспечивающих скорость передачи 155 Мбит/с. В ноябре прошлого года чикагский NAP первым начал предлагать доступ на скорости 622 Мбит/с. По словам Питерсона, следующим важным шагом будет предоставление услуг прямого подключения к магистралям Internet тем крупным предприятиям, которые предпочитают обходиться без помощи провайдеров.

Последняя остановка в Сан-Хосе

При посещении узла доступа в Сеть MAE-West прежде всего бросается в глаза замечательный вид, который открывается из огромного окна помещения, расположенного на десятом этаже, — на первом плане деловой район города, а вдали горы Санта-Круз. Угловую комнату офиса заполняет громадный аккумулятор, служащий источником резервного питания. Странно, что узел занимает такие прекрасные апартаменты, в которых с огромной радостью расположились бы руководители самого высокого ранга. Однако это — Кремниевая Долина, колыбель Internet-революции. Здесь можно все.

Основу этого NAP составляют коммутаторы (три ATM, шесть FDDI и несколько Ethernet) и ряд кроссовых стоек. Остальная часть помещения заполнена рядами черных металлических шкафов, где находятся маршрутизаторы и коммутаторы провайдеров Internet. На одиннадцам этаже также расположено оборудование пользователей узла. Как и на MAE-East, на узле MAE-West используются параллельные сети FDDI и ATM. Когда между десятью утра и часом дня пиковая нагрузка достигает 2 Гбит/с, сеть FDDI работает почти на пределе своих возможностей. К ней подключено около 75 провайдеров Internet. Новым клиентам предоставляется доступ через сеть ATM, которая была установлена год назад на базе коммутаторов Cisco StrataCom BPX, имеющих пропускную способность по 9,6 Гбит/с. Пока к этой сети подключено только 20 провайдеров. По словам Дэна Лэсетера, руководителя по широкополосным приложениям, компания MCI WorldCom выбрала технологию ATM для модернизации своего узла доступа в Internet, так как считает ее более зрелой, чем Gigabit Ethernet или IP поверх SONET.

Сегодня на MAE-West тихо. «Вы не увидите здесь сотрудников, которые носятся как сумасшедшие», — сообщил Лэсетер. Тем не менее покой иногда нарушается. Наиболее распространенная проблема — пропадание связи у одного из провайдеров. В этом случае специалисты компании MCI WorldCom помогают найти неисправность. Лэсетер вспомнил, что самый серьезный инцидент произошел, когда отказал коммутатор FDDI. Потребовалось несколько часов, чтобы устранить неисправность, благо запчасти — всегда под рукой. Если в здании вдруг пропадет питание, через минуту включится генератор, расположенный в подвале. Кроме того, аккумулятор будет подавать энергию в течение четырех часов. Несмотря на такие резервы, Лэсетер не удовлетворен. Электрики сейчас готовятся к установке еще одного аккумулятора. «На данный момент существующей мощности достаточно, — считает Лэсетер. — Однако пока далеко не все аппаратные шкафы заполнены».

В Северной Калифорнии наступает полдень, и Лэсетер наблюдает за тем, как трафик на MAE-West постепенно достигает пиковой величины 1,9 Гбит/с. В Европе в это время уже вечер, а в Японии — раннее утро, и Сано садится на поезд Йокогама — Токио. Начинается следующий день в Internet.

Internet состоит из сотен сетей, соединенных разнообразными способами. Стабильность Всемирной сети обеспечивают узлы обмена трафиком (в США их называют узлами доступа в Сеть). Восемь узлов, которые мы посетили, расположены в разных частях земного шара. Хотя они сильно различаются по внешнему виду, размерам и мощности, персонал каждого из них твердо уверен, что имеет все необходимое для того, чтобы Internet продолжала жить и развиваться.

Поделитесь материалом с коллегами и друзьями