Компьютерные технологии и астрономияВ тематической подборке, приглашенными редакторами которой являются Виктор Панкратиус (Victor Pankratius) и Крис Мэтмен (Chris Mattmann), содержатся пять крупных статей и четыре заметки. Вводная называется «Компьютинг в астрономии: увидеть невиданное» (Computing in Astronomy: To See the Unseen). Впечатляющий переход от эпохи дефицита научных данных к эпохе их переизбытка особенно заметен в астрономии — телескопы и датчики способны генерировать петабайты данных в секунду, приходящих от радиотелескопов LOFAR (Low Frequency Array), сверхчувствительных радиотелескопов Jansky Very Large Array и ALMA (Atacama Large Millimeter/submillimeter Array), а также от космических телескопов: Кеплер, Хаббл и др. Данные, собираемые этими устройствами, помогают изучать происхождение и развитие Вселенной, а также искать планеты, пригодные для жизни людей. В настоящее время прогрессу астрономии более всего способствуют компьютерные науки, что можно видеть на примере телескопа ALMA, который станет крупнейшим в мире и будет производить примерно 700 Тбайт данных ежесуточно. При наличии таких огромных объемов данных ученые-астрономы должны использовать в своих исследованиях значительную компьютерную поддержку.

Первая статья тематической подборки называется «Исследование галактики Млечного Пути с использованием ParaHeap-k» (Studying the Milky Way Galaxy Using ParaHeap-k), ее написали Марк Жене (Mark Jenne), Овен Боберг (Owen Boberg), Хасан Курбан (Hasan Kurban) и Мехмет Далкилич (Mehmet Dalkilic). В статье дается краткий обзор используемых в астрономии алгоритмов, применяя которые авторы пытались обнаружить основные компоненты нашей Галактики в модельном наборе данных, представляющем около миллиона звезд. Результаты исследования являются начальной точной для будущего интеллектуального анализа крупных наборов данных, которые будут производиться будущими астрономическими устройствами. Статья также позволяет компьютерным специалистам познакомиться с базовой терминологией астрономии.

В статье «Высокопроизводительные вычисления собственного тяготения малых тел Солнечной системы» (High-Performance Computing of Self-Gravity for Small Solar System Bodies) ее авторы Даниель Фраскарелли (Daniel Frascarelli), Серджио Несмачнов (Sergio Nesmachnow) и Гонзало Танкреди (Gonzalo Tancredi) заново пересматривают классическую проблему n тел в контексте мелкозернистой многопотоковости. Они анализируют малые тела Солнечной системы, состоящие из подобъектов, которые подвергаются столкновениям, упругим и фрикционным взаимодействиям. В статье также оцениваются возможности параллелизма многоядерных компьютеров и разъясняются основы параллельного программирования.

Авторами статьи «Масштабирование астроинформатики с использованием Pydron: Python + автоматическое распараллеливание» (Scaling Astroinformatics with Pydron: Python + Automatic Parallelization) являются Стефан Мюллер (Stefan C. Muller), Густаво Алонсо (Gustavo Alonso) и Андре Ксиллафи (Andrу Csillaghy). В статье описывается система автоматического распараллеливания кода на языке Python, одним из предназначений которой является анализ данных в астрономии. Система распараллеливает части кода на основе графа потока данных, который частично обеспечивается программистами с помощью расширений языка Python — декораторов, упрощающих развертывание и параллельное выполнение кода в облачных средах.

Статью «Модель сквозных вычислений для SKA» (An End-to-End Computing Model for the Square Kilometre Array) написали Рик Йонгериус (Rik Jongerius), Стефан Вийнхольдс (Stefan Wijnholds), Рональд Нийбоер (Ronald Nijboer) и Хенк Карпорал (Henk Corporaal). В статье обсуждается будущее крупнейшего за все время существования радиоастрономии радиотелескопа Square Kilometre Array. На первой фазе конструирования будет установлено 250 000 дипольных антенн и 350 параболических антенн. В статье обсуждаются требования, предъявляемые разработчиками SKA, к средствам сбора и обработки данных.

В статье «Антарктические компьютерные приключения, или Как я научился не беспокоиться и полюбил нейтрино» (Adventures in Antarctic Computing, or How I Learned to Stop Worrying and Love Neutrino) ее авторы Лиза Герхардт (Lisa Gerhardt), Хуан Карлос Диаз Велез (Juan Carlos Diaz Velez) и Спенсер Клейн (Spencer R. Klein) описывают нейтринный телескоп Ice-Cube, состоящий из 5160 оптических датчиков, погруженных вглубь льда Южного полюса (см. рисунок). В статье разъясняется потребность в подобных сложных устройствах, а также обсуждается влияние особенностей антарктической среды на применяемые компьютерные средства.

 

Схема нейтринной обсерватории IceCube. На поверхности ледника находится лаборатория IceCube
Схема нейтринной обсерватории IceCube. На поверхности ледника находится лаборатория IceCube

 

Последний материал тематической подборки называется «Компьютерные системы в астрономии: приложения и примеры» (Computing in Astronomy: Applications and Examples) и включает четыре небольшие заметки. В заметке «Визуализация Вселенной: использование современных графических карт для понимания реального мира» (Visualizing the Universe: Using Modern Graphics Cards to Understand the Physical World) Александер Богерт (Alexander Bogert), Николас Смит (Nicholas Smith) и Джон Холденер (John Holdener) описывают разрабатываемую в Калифорнийском университете Санта-Круз систему yt, предназначенную для анализа и визуализации пространственных данных. В модуле визуализации используются возможности графических процессоров.

В заметке «Визуализация Больших Данных в астрономии: конвейер AMPED» (Visualizing Big Data in Astronomy: The Automated Movie Production Environment Distribution and Display (AMPED) Pipeline), которую написал Эрик де Йонг (Eric De Jong), рассказывается о системе визуализации, используемой в проекте лаборатории ракетного движения НАСА. Ключевой особенностью системы является то, что данные визуализируются в виде «роликов», отражающих темпоральные характеристики данных.

Авторы заметки «Поддержка распределенного совместного анализа и классификации быстрых переходных событий» (Supporting Distributed, Collaborative Review and Classification of Fast Transient Events») Эндрю Харт (Andrew F. Hart), Люка Чинквини (Luca Cinquini), Шейкен Худикян (Shakeh E. Khudikyan), Дэвид Томпсон (David R. Thompson), Крис Мэтмен (Chris A. Mattmann), Кири Вэгстаф (Kiri Wagstaff), Джозеф Лацио (Joseph Lazio) и Дейтон Джонс (Dayton L. Jones) работают в лаборатории ракетного движения НАСА и в сотрудничестве с научной группой Национальной радиоастрономической лаборатории разрабатывают набор программных компонентов для быстрой оценки, классификации и архивирования данных радиообнаружения. В проекте активно используются доступные программные средства с открытыми исходными текстами (в частности, платформа полнотекстового поиска Apache Solr).

В последней заметке «Технологии Больших Данных в JPL» (Big Data Technologies at JPL), автором которой является Дейтон Джонс (Dayton L. Jones), описаны работы, выполняемые в лаборатории ракетного движения НАСА (JPL) в областях, связанных с проблематикой Больших Данных: обработка сигналов с низким энергопотреблением, анализ данных в реальном времени с использованием алгоритмов машинного обучения, масштабируемая архивация данных, а также интеллектуальный анализ и визуализация данных.

Вне тематической подборки опубликованы две крупные статьи. Статью «Стандарты кибербезопасности» (Cybersecurity Standards: Managing Risk and Creating Resilience) представили Закари Колльер (Zachary A. Collier), Игорь Линьков (Igor Linkov), Дэниэл ди Мазе (Daniel DiMase), Стив Уолтерс (Steve Walters), Марк Теранипур (Mark Tehranipoor) и Джеймс Ламберт (James Lambert). Описанные в статье модели кибербезопасности, эффективно связывающие технические данные и анализ выработки решений по определению контрафактных электронных компонентов, показывают, что стандарты кибербезопасности на основе оценки рисков могут способствовать созданию систем, более устойчивых к динамическим угрозам появления поддельных деталей.

Статья «Адаптация серверов к новым технологиям памяти» (Adapting Server Systems for New Memory Technologies), которую написали Хиллери Хантер (Hillery Hunter), Луис Ластрас-Монтаньо (Luis A. Lastras-Montano) и Бишваранджан Бхаттачарджи (Bishwaranjan Bhattacharjee), посвящена анализу проблем, с которыми серверы сталкиваются в настоящее время и которые могут смягчить или даже устранить новые технологии памяти: магниторезистивная память на основе переноса спинового момента (spin-torque transfer magnetic memory, STT-MRAM), память на основе фазовых переходов (phase-change RAM, PCRAM) и резистивная металл-оксидная память. Сообщество разработчиков серверов взбудоражено грядущим (в ближайшие годы) появлением на рынке этих энергонезависимых кандидатов в серверные средства долговременного хранения данных. По сравнению с флеш-памятью типа NAND такие технологии могут обеспечивать большую износостойкость по записи и меньшую задержку доступа — характеристики, которые могут преобразить серверные системы.

Сергей Кузнецов (kuzloc@ispras.ru) — профессор, МГУ (Москва).

Поделитесь материалом с коллегами и друзьями

Купить номер с этой статьей в PDF