Как поясняют в Facebook, компания просто не может найти коммутаторы с достаточным количеством портов 10 Gigabit Ethernet, чтобы обеспечить оптимальную структуру сети

Рост потребностей в возможностях инфраструктуры у ИТ-службы, осуществляющей поддержку популярной социальной сети, отражает резкое увеличение сетевого трафика в целом. Недавно альянс Ethernet Alliance провел конференцию Technology Exploration Forum, посвященную путям решения подобных проблем.

Facebook при создании своих центров обработки данных использует множество идентичных недорогих серверов, связанных стандартной сетью Ethernet, и объединяет их процессорные ресурсы для организации работы своих основных приложений. Сетевая структура, которая связывает эти системы, является критически важным компонентом инфраструктуры, заявил на конференции Донн Ли, инженер Facebook.

"100 Gigabit Ethernet необходим нам сейчас, но мы понимаем, что практически сразу же после модернизации, которую мы собираемся провести, понадобится уже Ethernet на 1 Тбит/с", - подчеркнул Ли. Он отметил, что у Facebook так много серверов, перемалывающих горы данных, что они уже в самое ближайшее время будут в состоянии заполнить терабитные магистрали.

Сейчас разрабатывается спецификация для Ethernet на 100 Гбит/с, а также вариант на 40 Гбит/с, но вряд ли этот процесс будет завершен до конца 2010 года.

Когда говорят об Ethernet следующего поколения, как правило, имеют в виду магистральные сети операторов, но, возможно, повышенная скорость Ethernet в первую очередь требуется как раз центрам обработки данных. По словам Ли, серверы в центрах Facebook используют огромные сетевые ресурсы, поскольку совместно решают такие задачи, как например, резервное копирование баз данных.

"Даже одна из наших задач способна заполнить всю полосу пропускания, до предела затруднив работу всех наших пользователей в течение целого дня", - заметил Ли.

Facebook отличается тем, что использует множество серверов для выполнения одного-единственного приложения — более характерна ситуация, когда возможности каждого сервера делятся между многими виртуальными машинами. Как следствие, компании приходится связывать множество серверов вместе. Но недостаточность полосы пропускания в первую очередь связана с фундаментальными изменениями в технологии. Все системные платы серверов имеют встроенную поддержку Gigabit Ethernet, и при обработке данных современными многоядерными процессорами загрузить эти каналы не составляет труда. 10 Gigabit Ethernet – самый емкий канал, который Facebook может использовать для связи воедино всех ресурсов центра обработки данных, и, как пояснил Ли, компания просто не может найти коммутаторы с достаточным количеством портов 10 Gigabit Ethernet, чтобы обеспечить оптимальную структуру сети.

В конечном итоге, как заметил Ли, узкие места, связанные с сетевыми технологиями, замедляют темпы инноваций в Facebook. Более быстрые сетевые соединения могли бы позволить развивать инновационные решения ускоренными темпами, а новые внутренние и предлагаемые пользователям приложения могли бы быстрее работать при условии увеличения скорости коммуникаций и соответствующих усовершенствований. В идеале каждый сервер мог бы посылать данные со скоростью 1 Гбит/с любому другому серверу в ЦОД, но это потребовало бы 64 каналов Terabit Ethernet (такой технологии пока не существует) или 6400 современных каналов 10 Gigabit Ethernet, что невозможно реализовать на практике. Для организации структуры такого масштаба понадобилось бы 160 самых крупных из выпускаемых в настоящее время коммутаторов.

"Только представьте, каково всем этим управлять, - заметил Ли. – Упущены многие моменты в такой структуре ЦОД. А они важны для функционирования структуры Ethernet, при том что нет ни одного решения соответствующего масштаба". Ли подчеркнул, что его первоочередная задача -- связать вместе все компоненты ЦОД.

Поделитесь материалом с коллегами и друзьями