Data-Intensive Computing

Компьютерные технологии и астрономия

Тема сентябрьского номера журнала Computer (IEEE Computer Society, Vol. 47, No. 9, 2014) — компьютерные технологии в астрономии.

Суперкомпьютер из облака

Для ряда приложений нельзя заменить специализированные машины сборками из универсальных облачных модулей, однако есть приложения, в частности распределенная обработка больших массивов данных, для которых использование облаков оправданно.

Большие Данные и суперкомпьютеры

Аналитика Больших Данных требует применения высокопроизводительных систем, однако на пути конвергенции этих двух миров имеется ряд препятствий. Как решать проблему Больших Данных на суперкомпьютерах?

Процессоры для потоковых данных

Для работы с большими потоками данных, поступающими в реальном времени, требуются гетерогенные процессоры, сочетающие в себе возможности CPU и GPU.

От данных к знанию

Каким бы мощным ни был традиционный суперкомпьютер, он все еще остается инструментом прошлого века, однако сегодня нужны иные компьютеры, способные не к вычислительному моделированию, а к непосредственному превращению данных в знание.

Датаскоп — инструмент для Больших Данных

В науке и технике используется множество различных приборов, название которых оканчивается на «скоп»: микроскоп, телескоп, перископ, интраскоп и др., а теперь аналитическая работа с большими объемами данных вызвала к жизни еще один — датаскоп.

Graph500: адекватный рейтинг

На конференции SuperComputing 2010 компьютерной общественности был предложен список Graph500, претендующий на более адекватное, чем в Top500, отражение рейтинга суперкомпьютеров, способных решать задачи обработки больших массивов данных. Что побудило создать очередной тест и в чем его суть?

Вычисления с акцентом на данные

Необходимость обработки петабайтных массивов данных вызвала к жизни новые подходы, которые получили название Data-Intensive Computing.

Как финансируется DIC

Сегодня в России активно верстаются государственные программы по финансированию НИиОКР по стратегическим направлениям, в число которых, по мнению западных стратегов, входят и решения в области Data-Intensive Computing.

Оценка быстродействия нерегулярного доступа к памяти

Расширение пропасти между производительностью процессоров и скоростью доступа к памяти, появление приложений, интенсивно взаимодействующих с памятью через единое адресное пространство, стимулировали создание вычислительных систем с новой архитектурой. Однако для оценки таких систем традиционные тесты уже не подходят. Пришло время тестов «анти-Linpack».