Шина InfiniBand обеспечит пропускную способность 200 Гбит/с, это позволит ускорить работу платформ машинного обучения и высокопроизводительных вычислений (High Performance Computing, HPC).

«Поскольку новые серверы, оборудованные графическими процессорами, имеют высокую вычислительную мощность, требуется увеличенная пропускная способность сети, — пояснил аналитик Dell’Oro Group Самех Буджельбене. — Внедрение подобных систем, предназначенных для приложений машинного обучения, идет сейчас очень быстрыми темпами».

Шина HDR InfiniBand, которая будет использоваться в следующем году в трех группах продуктов Mellanox Technologies, обеспечивает пропускную способность в два раза больше, чем InfiniBand. Во столько же раз она опережает по скорости и наиболее производительные интерфейсы Ethernet.

Однако количество потенциальных клиентов, которым понадобится новая технология, пока относительно невелико. По оценкам Буджельбене, к их числу относятся только 10% пользователей InfiniBand с пропускной способностью 100 Гбит/с.

Mellanox начнет поставлять набор продуктов для сквозных соединений с пропускной способностью 200 Гбит/с, предназначенных для высокопроизводительных вычислений и других задач

Сами по себе решения на базе технологии InfiniBand составляют лишь малую часть сетей ЦОД. Сегодня менее 5% всех серверных контроллеров и адаптеров поддерживают InfiniBand. Шина Omni-Path с пропускной способностью 100 Гбит/с, появившаяся после приобретения корпорацией Intel бывшего поставщика InfiniBand, компании QLogic, занимает еще меньшую долю. Большинство использует Ethernet.

Отличие InfiniBand от Ethernet заключается в минимизации и предсказуемости задержек. Для высокопроизводительных вычислений, в ходе которых, как правило, выполняются задачи, имеющие итерационный характер, такие возможности имеют очень важное значение. «Каждая задержка при выполнении очередной итерации повторяется тысячи раз, поэтому нужно сводить их к минимуму, — пояснил вице-президент Mellanox по маркетингу Гилад Шайнер. — Современные системы высокопроизводительных вычислений, скорее всего, будут поставляться уже с InfiniBand. Более 200 систем, вошедших в обновленный список суперкомпьютеров Top500, уже используют эту шину при организации внутренних межсоединений. Она применяется также в машинном обучении, при обработке Больших Данных, в финансовой сфере, для обнаружения случаев мошенничества и в других приложениях».

Семейство продуктов HDR InfiniBand имеет все необходимое для организации в ЦОД сквозных каналов передачи данных с пропускной способностью 200 Гбит/с. Можно назвать адаптеры Mellanox ConnectX-6, коммутаторы Quantum, а также кабели и трансиверы LinkX.

Адаптеры можно подключать к серверам с любой процессорной архитектурой, включая x86, Power и ARM. Коммутатор, имеющий 40 портов InfiniBand с пропускной способностью 200 Гбит/с или 80 портов с пропускной способностью 100 Гбит/с, имеет общий уровень производительности 16 Тбит/с.

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF