ПРЕДПРИЯТИЕ, ОСНОВАННОЕ НА ДАННЫХ:
стратегии, архитектуры, платформы, практики

24 сентября 2019
Россия, Москва
РЕНЕССАНС МОНАРХ ЦЕНТР
(Ленинградский проспект 31А стр.1)

Форум «Управление данными 2019»

Впервые в России на одной площадке собрались все, кто определяет стратегию работы с корпоративными данными, и все, кто воплощает ее в жизнь с помощью конкретных технологий, решений и инструментов.

.
Почему данные становятся вашим главным активом и как извлечь
из него максимальную выгоду?
.
Как превратить сырые и разрозненные сведения в полезные идеи
и инструменты ведения бизнеса в цифровой экономике?
.
Как сформировать корпоративную культуру работы с данными, связывающую в одну команду тех, кто собирает и готовит данные,
и тех, кто их анализирует и применяет в бизнесе?
.
Как построить среду быстрой интегрированной разработки и эксплуатации приложений больших данных?
.
Как предоставить всем сотрудникам предприятия простые, безопасные и умные инструменты работы с данными?
.
Как научить ваше предприятие работать, опираясь на данные, а данные — работать на вас?
В программе:
Бизнес-модели:
  • данные в основе инноваций;
  • трансформация,повышение эффективности;
  • монетизация данных.
Стратегии:
  • регулирование информационных активов (Data, Knowledge, AI Governance), стратегия, политики и стандарты, CDO и ролевые сообщества;
  • корпоративная культура работы с данными;
  • качество, самообслуживание и демократизация данных, Data Science и DataOps.
Архитектуры:
  • архитектура данных, корпоративная модель данных;
  • архитектуры интеграции данных и управления мастер-данными;
  • архитектуры управление документами и контентом;
  • непрерывный интеллектуальный анализ (Continuous Intelligence), разговорный ИИ (Conversational AI);
  • централизованные и распределенные системы.
Технологии:
  • СУБД SQL, NoSQL и NewSQL, In-Memory;
  • непрерывная обработка событий и потоковая обработка разнообразных данных;
  • логическое хранилище и гибридная обработка данных HTAP, управление метаданными;
  • машинное обучение, искусственный интеллект, бизнес-аналитика и дополненная аналитика;
  • облачные решения работы с данными и защита данных.
Практики:
  • финансы, телеком, ТЭК, промышленность, транспорт;
  • ретейл, госсектор, медицина;
  • 10+ отраслей.
Спикеры
Вернуться
к докладчикам
Валерий Артемьев, консультант Департамента статистики и управления данными, Банк России
Окончил МВТУ имени Н.Э. Баумана, проходил стажировку в Великобритании по банковским системам (De Montfort University, Leicester), изучал методы и средства создания аналитических систем и хранилищ данных в лаборатории IBM Silicon Valley Lab. С 1993 года работает в Центральном Банке РФ, где планировал и руководил проектами по веб-приложениям, XML-форматам сбора отчетности, хранилищам данных и бизнес–аналитике. Руководил инновационными проектами и разрабатывал архитектуру решений централи­зованных прикладных систем. Участвовал в создании систем блока банковского надзора на основе технологий хранилищ данных и бизнес–аналитики, а также управления метаданными: ЕИСПД для монито­рин­га и анализа деятельности кредитных организаций; АКС для анализа платежной информации. Имеет 40-летний преподавательский стаж. Сейчас работает в Управлении методологического и организационного обеспечения, Департамент статистики и управления данными Банка России.
Зачем надо управлять информационными активами?

Любая компания или организация рано или поздно сталкивается с задачей управления всеми своими информационными активами, решение которой невозможно без получения ответов на следующие вопросы: насколько эффективно в организован процесс обнаружения данных, требуемых для решения новой бизнес-задачи; каков их состав, периодичность наблюдения и историческая глубина; где в организации размещены данные и как обеспечен доступ к ним; какие исходные данные проанализированы, какие получены результаты, как они реально использовались и какой был получен эффект. Доклад посвящен обсуждению особенностей организации учета корпоративных информационных активов, требуемого для их эффективного управления. Дается обоснование необходимости ведения корпоративной модели данных, бизнес-глоссария и каталога данных – необходимых предпосылок для формирования архитектуры данных. Кроме того в докладе разбирается проблема качества данных: семантическая основа качества, ценность конкретных данных для аналитики и проверки бизнес-правил, выделение информационных активов, критичных и ценных для операционной деятельности, подготовки и принятия управленческих решений.
Вернуться
к докладчикам
Алена Дробышевская, директор, руководитель направления Умные Технологии, KPMG
Окончила МГУ им. М.В. Ломоносова. Около 20 лет опыта работы в ИТ-индустрии – специализация: анализ данных и облачные технологии. До перехода в KPMG работала, в частности, в Oracle и Microsoft, где отвечала за направление работы с платформами управления данными, аналитику и решения с применением систем искусственного интеллекта в интересах крупных отечественных клиентов. Имеет опыт открытия в России дочерней компании венгерского производителя ПО для банков в области управления рисками и автоматизации процессов кредитования, управления залогами. Сейчас занимается анализом данных и построением моделей на основе технологий машинного обучения и искусственного интеллекта для заказчиков из разных индустрий.
Стратегия управления данными: центры монетизации

В течение следующих трех лет 44% организаций во всем мире планируют существенно изменить свою бизнес-модель, спектр предлагаемых сервисов и продуктов, что вызвано как бурным развитием цифровых технологий, так и необходимостью быть ближе к клиентам и заказчикам, оперируя всеми доступными предприятиям данными. Как следствие, почти 92% компаний рассматривают управление корпоративными данными в качестве ключевого элемента своей бизнес-стратегии. Доклад посвящен анализу особенностей проектов монетизации данных, которые сейчас входят в пятерку ключевых направлений развития для компаний. Особое внимание уделено обсуждению возможностей, открываемых перед бизнесом в результате правильно организованных процессов сбора, анализа и доставки данных – на примере проекта построения центра монетизации данных одной из международных компаний.
Вернуться
к докладчикам
Михаил Петров, Директор Департамента цифровой трансформации, Счетная палата РФ, Эксперт Центра подготовки руководителей цифровой трансформации ВШГУ РАНХиГС
Более 20 лет в ИТ-индустрии, работал в ведущих российских и зарубежных консалтинговых компаниях: аудиторская компания ФБК (Финансовые и бухгалтерские консультанты), PriceWaterhouseCoopers, i2, а также в Оргкомитете «Сочи 2014», где прошел путь от руководителя Управления ERP до Директора Технологического Операционного Центра, отвечавшего за поддержку всех технологических сервисов для десятков тыс. пользователей на всех объектах Игр. В Минкомсвязи РФ руководил программой подготовки к Чемпионату Мира по футболу 2018 года, принимал участие в создании Проектного офиса Национальной Технологической Инициативы (НТИ). На позиции директора по управлению проектами цифровой трансформации ВТБ работал над организацией корпоративного акселератора и организацией инвестиций в финтех-проекты. Сейчас в Счетной палате Российской Федерации организует аналитическую работу с данными государственного аудита и контроля.
«Сциллы и Харибды» цифровой трансформации

Сегодня все ждут чудес от «цифровой трансформации», обещающей бизнес-прорыв, решение всех проблем и тому подобного «овеществления духов и раздачи слонов». Да, цифровизация – это сейчас стильно, модно и молодежно, но так ли конкретным компаниям нужна цифровая трансформация, а если нужна, то зачем? Все ли компании понимают, что такое «цифровые продукты» и способны создать «технологические карты» их производства? Достаточно ли нанять пятерых исследователей данных (data scientists), «запилить» «озерцо» данных, а затем уверенно докладывать на разного рода конференциях и собраниях акционеров – «мы самое цифровое предприятие в отрасли»?
Даже если у руководства компании имеется понимание необходимости цифровизации, то требуется, чтобы культура работы с данными стала неотъемлемой частью работы всего коллектива. Истинная цифровизация происходит только тогда, когда данные становятся реальным активом предприятия и когда с ними умеют работать его сотрудники на любом уровне управления. Доклад посвящен опыту, который сегодня приобретает Счетная палата Российской Федерации на пути реальной, а не «бумажной» цифровизации. Что такое «управление, основанное на данных» для конкретной организации? Как составить «карты данных», поставить и решать аналитические задачи? Как использовать в работе методы прогнозной аналитики? Как изменится ИТ-стратегия и работа ИТ-подразделения? Особое внимание уделено проблемам инициации «цифровой трансформации», подбору команды и организации процесса изменений.
Вернуться
к докладчикам
Василий Слышкин, директор департамента развития архитектуры и координации информатизации, Министерство цифрового развития, связи и массовых коммуникаций РФ
Национальная система управления данными: задачи и барьеры

С конца 2018 года в России идет работа над созданием Национальной системы управления данными (НСУД), аккумулирующей всю имеющуюся у государства информацию о гражданах, компаниях и объектах. Единая среда должна объединить больше сотни систем и федеральных информационных ресурсов, радикально ускорив процессы предоставления государственных услуг. В большей степени НСУД ориентирована на потребности физических и юридических лиц, на ускорение процесса предоставления сервисов, исключающего влияние человеческого фактора при обмене юридически значимыми данными. Доклад посвящен анализу планов и шагов, необходимых для создания НСУД на трехлетнюю перспективу. Особое внимание уделено обсуждению вызовов, которые стоят перед разработчиками и ожидаемых результатов, имеющих значимое влияние на органы власти, бизнес цифровой экономики и граждан страны.
Вернуться
к докладчикам
Александра Аронова, заместитель генерального директора, АО «ГЛОНАСС»
Почти 15 лет в ИТ-индустрии. Работала в Минкомсвязи России, где, в том числе, обеспечивала деятельность ведомства по регулированию отношений, связанных с обработкой персональных данных. На позиции директора департамента по взаимодействию с органами государственной власти в ПАО «Ростелеком» курировала вопросы нормативного обеспечения создания и функционирования Единой биометрической системы. Сейчас в АО «ГЛОНАСС» отвечает, в том числе, за правовой блок и взаимодействие с органами государственной власти: вопросы нормативного обеспечения цифровой трансформации транспортной отрасли, включая обработку данных мониторинга пассажирского транспорта, грузоперевозок, а также данные, получаемые в рамках функционирования системы спасения жизни и здоровья людей на дорогах страны.
Данные, спасающие жизни: «ЭРА-ГЛОНАСС»

Уже несколько лет государственная система «ЭРА-ГЛОНАСС» обеспечивает в России оперативный анализ и передачу данных службам экстренного реагирования, помогая спасать жизнь и здоровье людей, попавших в ДТП. Какие данные нужны, чтобы уложиться в «золотой час» и спасти жизнь человека? Как сделать этот процесс эффективнее? Почему водители, несмотря на социальную значимость проекта, продолжают опасаться установки в свои автомобили устройств вызова экстренных оперативных служб? Существуют ли реальные риски злоупотребления не персональными данными о транспортных средствах и их владельцах? В докладе даны ответы на эти и другие вопросы, связанные с обеспечением безопасности на транспорте, а также рассматривается задача управления данными между всеми входящими в транспортную инфраструктуру службами, ведомствами, организациями и компаниями, от эффективного решения которой, в конечном счете, зависит жизнь людей.
Вернуться
к докладчикам
Сергей Сергиенко, руководитель направления НСУД, НИИ «Восход»
Окончил факультет Кибернетики МИФИ. Более 25 лет в ИТ-индустрии: EPAM Systems, IBS, предприятия банковской сферы. Занимался разработкой систем для банков, производства и государственных организаций.
Имеет опыт проектирования и разработки крупных информационных систем для государственного сектора. Руководил проектами создания Автоматизированной системы Федерального казначейства, системы государственных закупок, ГИИС «Электронный бюджет» и др. Сейчас возглавляет направление НСУД (Национальная система управления данных) в НИИ «Восход».
НСУД: ведомственные витрины данных

Значительный рост объемов услуг, предоставляемых в цифровой форме и увеличение информационных потоков делает весьма актуальной проблему обеспечения качества и доступности государственных данных. Кроме этого требует своего решения задача обеспечения согласованности и непротиворечивости сведений, получаемых из множества источников. При этом необходимо оптимизировать затраты на интеграцию с одновременным снижением нагрузки на каналы связи с целью избежать постоянных сверок. Доклад посвящен ответам на эти и другие вопросы, возникающие при обеспечении межведомственного взаимодействия с использованием НСУД. Особое внимание уделено обзору архитектуры национальной системы управления данными и обсуждению преимуществ, которые федеральные структуры, ведомства и граждане получат от НСУД.
Вернуться
к докладчикам
Борис Емельянов, руководитель группы инфраструктуры корпоративного хранилища, «Ростелеком»
Более пяти лет работает в сфере построения инфраструктур для анализа данных. Принимал активное участие в создании проекта корпоративного хранилища ПАО «Ростелеком».
Доставка данных в корпоративных хранилищах

Число источников, объемы и разнообразие данных для современных корпоративных хранилищ постоянно растут, что часто не позволяет применять классические подходы с центральным ETL-сервером (извлечение, преобразование и загрузка) – решение получается медленным, сложным и дорогим. Как следствие, все большую популярность приобретает подход ELT (извлечение, загрузка и преобразование), в частности, реализуемый с помощью технологии NiFi из стека Apache\Hadoop, представляющей собой удобный и масштабируемый транспорт с возможностями преобразования. Доклад посвящен обсуждению особенностей применения данной технологии для построения практически неограниченных динамических масштабируемых хранилищ данных, применяемых для ведения бизнеса. Особое внимание уделено разбору конкретных ситуаций адаптации хранилища для решения конкретных задач управления разнообразным бизнесом телекоммуникационной корпорации.
Вернуться
к докладчикам
Андрей Коньшин, руководитель проектов Клиентского сервиса, «МегаФон»
Закончил Московский Технический Университет Связи и Информатики по направлению Инфокоммуникационные технологии и системы связи, защитил магистерскую работу на тему «Анализ предоставления мультимедийных услуг на базе IMS-платформы». Работал в компании КРОК на больших интеграционных проектах. С 2016 года работает в ПАО МегаФон. Сейчас – руководитель проектов Клиентского сервиса в направлении Искусственный Интеллект, где занимается проектами, связанными с виртуальными помощниками, чат-ботами и биометрическими технологиями.
AI Governance: «умное» управление корпоративными данными

Стратегия «Развиваем цифровой мир» компании «МегаФон» ориентирована на цифрового клиента и вполне естественно, что при решении широкого спектра задач клиентского сервиса цифровой экосистемы, использующей все доступные корпоративные данные, применяются, в том числе, технологии искусственного интеллекта (AI Governance). При обращении клиента в контактный центр он взаимодействуют с виртуальным помощником «Елена», решающим большинство вопросов абонента, а чат-бот «Суфлер» помогает оператору-человеку найти нужную информацию в базе знаний. Распознавание по голосу позволяет обслужить клиента, не затрачивая время на проведение идентификации традиционными средствами. Клиент может задать свой вопрос «Суфлеру » или обратиться к компании через ассистентов «Алиса» и Google assistant. Если для абонента имеется персонального предложения, то ему позвонит виртуальный роботизированный оператор и с согласия клиента подключит его к необходимой услуге. Кроме этого, решение по речевой аналитике позволяет контролировать качество обслуживания по каждому обращению. Доклад посвящен обсуждению задач, решаемых Клиентским Сервисом «МегаФон» и возможностей применения технологий стека AI Governance для их решения. Особое внимание уделено анализу полученных результатов и перспектив дальнейшего развития клиентского сервиса.
Вернуться
к докладчикам
Юрий Сирота, руководитель департамента искусственного интеллекта и анализа данных, центра компетенций BI, «Банк УралСиб»
Закончил Казанский государственный университет, Европейский университет в Санкт-Петербурге и Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики (ИТМО), Российский государственный педагогический Университет им А.И.Герцена, магистр экономики, магистр ИТ и магистр Data Science, к.физ.-мат.н. Автор более 60 научных работ и учебных пособий, член петербургского математического общества. Работал в инвестиционных фондах и банках, преподавал высшую математику в вузах. Сейчас – старший вице-президент, «Банк УралСиб».
Аналитическая культура организации. Проблемы и пути развития

Приобретение оборудования и ПО, прием на работу дорогих исследователей данных (data scientist) далеко не всегда являются достаточным условием успешного выполнения проектов цифровой трансформации и монетизации данных, как части задачи управления корпоративными данными. Сами по себе нематериальные ресурсы обычно лишь косвенно становятся причинами провала проектов – главное люди со своими интересами, работающие в конкретной организационной структуре. Доклад посвящен обсуждению вопросов создания аналитической культуры на предприятии: секреты успешного развития компетенции и признаки провала проекта, препятствия и стратегия инновационного пути развития аналитики, предпосылки успеха развертывания аналитических решений. Особое внимание уделено психологическим причинам провалов проектов и анализу последствий неправильного распределения ролей.
Вернуться
к докладчикам
Донат Фетисов, начальник отдела архитектуры и разработки, «Северсталь-Диджитал»
Закончил Тольяттинскую академию управления. В ИТ-индустрии около 15 лет: занимался созданием модульной системы управления вузом для РАНХиГС, принимал участие в создании единой информационной системы здравоохранения РФ составе в экспертных групп Минздравсоцразвития, проектировал DMP-платформу (Data Management Platform) в ГК "Видео Интернешнл" для задач таргетирования рекламы, в Сбербанке руководил проектом «Лаборатория данных» и подразделением по работе с большими данными.
Промышленный интернет вещей: управление данными

Без обработки больших данных невозможен ни один проект цифровой трансформации и особенно если речь идет о решения для промышленного интернета вещей. Многообразие типов данных, большие объемы, скорость поступления телеметрии и необходимость ее обработки в реальном времени, интеграция с корпоративными информационными системами – все это делает особо актуальной задачу управления данными для платформы промышленного интернета вещей. Доклад посвящен IIoT-платформе ПАО «Северсталь». Особое внимание уделено примерам проектов по внедрению машинного обучения в производство с разбором особенностей соответствующего технологического стека.
Вернуться
к докладчикам
Любовь Кайдалова, руководитель направления по качеству данных, «Газпром нефть»
Окончила Тюменский государственный нефтегазовый университет по специализации «Экономика и управление на предприятии (ТЭК)». Более 10 лет в нефтегазовой индустрии, в частности, руководила направлением планирования потребности в группе внедрения шаблона «Программы реинжиниринга процессов финансов и логистики» для бизнес-направления «Разведка и добыча в вертикально-интегрированной нефтяной компании». В ПАО «Газпром нефть» с 2013 года, начав с руководителя группы проекта по унификации учета и калькулирования себестоимости всех Дочерних добывающих обществ, работая над улучшением качества управленческой отчетности, сформированной различными автоматизированными системами. Сейчас в Блоке разведки и добычи работает в Управлении организации работы с данными Департамента по планированию, управлению эффективностью и данными.
Управление качеством данных в вертикально-интегрированных компаниях

Для современных вертикально-интегрированных нефтяных компаний (ВИНК), вставших на путь цифровой трансформации ключевой становится задача обеспечения качества данных. Сегодня группа ПАО «Газпром нефть» трансформируется в цифровую нефтяную компанию, управляемую на основе данных и цифровых двойников, что в перспективе 3-7 лет должно поднять предприятие и отрасль в целом на новый уровень эффективности. В компании инициированы проекты по цифровизации и один из ключевых факторов их успеха – обеспечение качества данных. Доклад посвящен обсуждению процесса управления качеством данных в ВИНК и используемым инструментам. Особое внимание уделено изложению опыта, полученного при выполнении проектов управления качеством данных.
Вернуться
к докладчикам
Руслан Гизатуллин, начальник Управления геолого-геофизических баз данных, «Газпромнефть НТЦ»
Окончил Уфимский государственный нефтяной технический университет по специализации «Геология и геофизика». В нефтяной индустрии почти 20 лет: занимался развертыванием направления мониторинга за разработкой нефтяных и газовых месторождений, формированием службы сопровождения геолого-геофизических баз данных, участвовал в создании проектных документов (подсчет запасов, технико-экономическое обоснование коэффициента извлечения нефти, авторский надзор за разработкой и др.). В ООО «Газпромнефть НТЦ» работает почти 10 лет: главный специалист управления мониторинга группы месторождений Муравленковск нефть, руководитель группы по созданию и сопровождению геолого-геофизических баз данных месторождений ПАО «Газпром нефть». Сейчас руководит Управлением сопровождения геолого-геофизических баз данных Департамента цифровых технологий и геологической экспертизы.
Управление качеством данных в вертикально-интегрированных компаниях

Для современных вертикально-интегрированных нефтяных компаний (ВИНК), вставших на путь цифровой трансформации ключевой становится задача обеспечения качества данных. Сегодня группа ПАО «Газпром нефть» трансформируется в цифровую нефтяную компанию, управляемую на основе данных и цифровых двойников, что в перспективе 3-7 лет должно поднять предприятие и отрасль в целом на новый уровень эффективности. В компании инициированы проекты по цифровизации и один из ключевых факторов их успеха – обеспечение качества данных. Доклад посвящен обсуждению процесса управления качеством данных в ВИНК и используемым инструментам. Особое внимание уделено изложению опыта, полученного при выполнении проектов управления качеством данных.
Вернуться
к докладчикам
Борис Зингерман, генеральный директор Ассоциации разработчиков и пользователей искусственного интеллекта в медицине «Национальная база медицинских знаний»
Закончил мехмат Харьковского университета по специальности «Математика», более 40 лет работает в сфере информатизации здравоохранения, начав карьеру в Российском информационно-вычислительном центре Минздрава РСФСР (ЦНИИОИЗ), до 1988 года руководил разработкой информационно-аналитической Службы крови РСФСР, затем перешел в Гематологический научный центр РАМН, где заведовал отделом компьютеризации где первым в стране внедрил штриховое кодирование донорской крови. С 2001 года вел разработку МИС Гематологического научного центра, а с 2008 года разрабатывает телемедицинские сервисы: облачный медицинский проект Мед@рхив, платформа «Medsenger - медицинский мессенджер». Автор первого российского национального стандарта ГОСТ Р 52636-2006 «Электронная история болезни. Общие положения», а также разработчик проекта стандарта интегрированной электронной медицинской карты. Член экспертного совета по ИКТ Минздрава РФ – руководит рабочей группой «Электронная медицинская карта». С 2017 года руководит направлением цифровой медицины компании ИНВИТРО.
Ключевые проблемы и перспективы управления национальными медицинскими данными

Серьезным барьером на пути движения отечественной медицины в цифровую экономику является проблема неопределенности статуса медицинских данных – сегодня нет четкого понимания того, кто ими владеет и главное, как может использовать. В «бумажную» эпоху такая ясность была – кто хранит, тот и распоряжается бумажной медицинской картой и сопутствующими документами. Врачи, например, уверены, что пациенту вообще не нужен доступ к его медицинской информации, что, однако вступает в противоречие с общегражданскими подходами. Доклад посвящен анализу различий медицинских и других персональных данных, а также обсуждению подходов к их управлению с учетом особенностей взаимодействия трех потенциальных владельцев медицинских данных: гражданина, медицинской организации и государства. Особое внимание уделено проекту создания Национального оператора биомедицинских данных, обеспечивающего эффективный и безопасный доступ к медицинским данным с использованием современных технологий, включая и искусственный интеллект.
Вернуться
к докладчикам
Александр Яковлев, руководитель блокчейн-лаборатории, «Национальный Расчетный Депозитарий»
Закончил математико-механический факультет СПбГУ. Участник архитектурной рабочей группы и официальный спикер проекта Hyperledger. Реализовал проекты e-proxy voting на блокчейн для владельцев ценных бумаг с использованием доказательства с нулевым разглашением (ZK-SNARKS); выпуска и учета коммерческих облигаций на технологии распределенных реестров; первой трехсторонней сделки РЕПО на блокчейне и ряд других. Предприниматель, независимый аналитик и консультант финтех-компаний. Сейчас в НРД отвечает за направление блокчейн и работу с цифровыми активами.
Как технологии распределенных реестров могут угодить рынку?

Как показывает практика, в 99% финтех-проектах вполне можно обойтись без блокчейна: уже выстроены бизнес-отношения между участниками через доверенного посредника; нет экономического смысла использовать именно блокчейн; применение данной технологии вредит пользователям в долгосрочной перспективе, например создавая угрозу раскрытия банковской тайны. Вместе с тем имеются области, где раскрываются все преимущества распределенных реестров. Доклад посвящен практическому опыту применения технологии распределенных реестров и концепции Web 3.0 для создания и управления едиными источниками данных. Особое внимание уделено практическим аспектам применения блокчейна в качестве одного из вариантов реализации промышленных решений наряду с централизованными и облачными системами, а также обсуждению возможных изменений финансовой инфраструктуры под влиянием технологии распределенных реестров.
Вернуться
к докладчикам
Александр Чистобородов, начальник управления развития цифровых методов аудита «Центр экспертно-аналитических и информационных технологий Счетной палаты РФ
Более 30 лет в индустрии ИТ, из них десять лет в качестве ИТ-директора. Сейчас работает заместителем директора, начальником управления развития цифровых методов аудита Федерального Казенного Учреждения «Центр экспертно-аналитических и информационных технологий Счетной палаты РФ, где отвечает за организацию сбора, хранение и обработку данных в области государственного аудита и контроля.
«Озеро» данных для Счетной палаты

Данные – основа цифровой экономики, однако реальную пользу приносят лишь, максимально полные и чистые данные, связанные и правильно структурированные. Именно такие данные позволяют Счетное палате принимать максимально взвешенные решения на основе обработки сведений, получаемые от контролируемых организаций. Вместе с открытыми данными, такими как ЕГРЮЛ появляется возможность проводить глубокие аналитические исследования, делая полные и обоснованные выводы по результатам контрольных экспертно-аналитических мероприятий. Доклад посвящен опыту построения «озера» данных, архитектуре, а также анализу возникавших проблем и технологических решений их преодоления. Особое внимание уделено обзору методов обработки и организации хранения данных, позволившим исключить превращения «озера» данных в «болото».
Вернуться
к докладчикам
Олег Тихонов, руководитель практики Data Governance, Accenture Digital Russia
Получил высшее образование в области информационных технологий и банковского дела. Более 15 лет в ИТ-индустрии – прошел путь от аналитика и разработчика хранилища данных до руководителя центра компетенций по хранению и управлению данными. Сейчас в компании Accenture Russia специализируется на вопросах управления и монетизации данных с применением передовых технологий и практик.
Управление данными в Agile-организации: вызовы и решения

Сегодня все чаще возникает ситуация, когда традиционные подходы к управлению данными перестают работать – организации стремительно меняются, что влечет за собой и смену самой парадигмы работы с данными. Доклад посвящен разбору особенностей управления данными в организациях, практикующих гибкие методологии ведения проектной деятельности: новые вызовы и проблемы, возникающие перед ответственными за управление данными, существующие пути решения. Особое внимание уделено разбору конкретных кейсов и анализу опыта крупных международных компаний и организаций, использующих различные технологии управления данными.
Вернуться
к докладчикам
Александра Орехович, директор по правовым инициативам, ФРИИ
Закончила МГУ им. М.В. Ломоносова и магистратуру МГИМО по направлению «Право Европейского Союза», к.ю.н. Специалист в сфере разработки и согласования нормативно-правовых актов. Более 10 лет работает в области нормативного регулирования, в том числе в ИТ, занимая в различных организациях, включая органы региональной и федеральной уровней власти, должности главы структурных подразделений в сфере законотворчества. В качестве эксперта участвовала в разработке ряда федеральных законов. Входит в состав рабочей группы «Нормативное регулирование» АНО «Цифровая экономика», где принимает участие в совершенствовании законодательства Российской Федерации в области развития цифровой среды. В Фонде развития интернет-инициатив работает с 2015 года, отвечая за разработку и продвижение правовых инициатив.
Персональные данные: кто владеет и управляет

Действующее законодательство РФ не устанавливает четких положений, определяющих правила оборота данных между участниками правоотношений, а используемый в нем понятийный аппарат не способствует единству правоприменительной практики и пониманию участниками и игроками рынка данных, какие данные должны охраняться (например, как персональные), а какие могут свободно обрабатываться. С одной стороны, это приводит к тому, что ряд операторов персональных данных используют данные по собственному усмотрению, в том числе, распространяют их на коммерческой основе, полагая, что данные принадлежат им. С другой, такая неопределенность становится сдерживающим фактором легального обмена данными, питая чрезмерную осмотрительность крупнейших операторов данных. Все это приводит к отсутствию для субъекта персональных данных прозрачных механизмов обмена его данными, росту недовольства и сдерживанию развития рынка данных. В докладе обсуждается актуальная задача формирования качественной нормативной правовой базы регулирования оборота персональных данных как основы для развития цифровой экономики в целом: правовой режим обезличенных данных, понятие общедоступных персональных данных, определение четких правовых механизмов работы с данными и др.
Вернуться
к докладчикам
Алексей Еремихин, руководитель группы разработки систем бизнес-аналитики, Badoo
Закончил МИФИ, около 20 лет в ИТ-индустрии, из которых почти десять занимается бизнес-аналитикой. Сейчас в компании Badoo отвечает за создание автоматизированных систем бизнес-аналитики и инфраструктур, работающих с петабайтными объемами разнообразных данных.
Архитектура данных нового уровня: метаданные

Бизнес каждой крупной компании обычно уникален, соответственно и системы бизнес-аналитики отличаются существенно – нет однозначных рецептов построения эффективной инфраструктуры обработки всех доступных предприятию данных, особенно когда предприятие динамично развивается, постоянно пробуя новые возможности. Тем не менее, существует ряд подходов, например, по оптимальной организации работы с метаданными, значительно облегчающих работу корпоративных аналитиков. Доклад посвящен методам организации работы с данными для обеспечения работы масштабируемых систем бизнес-аналитики. Рассматриваются основные технические и организационные проблемы, возникающие при создании эффективной корпоративной системы бизнес-аналитики. Кроме этого, обсуждаются такие вопросы, как: кто отвечает за качество данных, как разделить зоны ответственности, как собрать в одном хранилище данные из множества разных источников, как мотивировать разработчиков продукта использовать инструменты бизнес-аналитики? Особое внимание уделено анализу проблем, актуальных как для архитекторов BI-систем и хранилищ данных, так и для ETL-разработчиков и инженеров по данным: как предотвратить превращение озера данных в болото, как загрузить слабоструктурированные данные в реляционную СУБД и как согласовать метрики оценки эффективности работы технических и бизнес-подразделений?
Вернуться
к докладчикам
Сергей Золотарев, управляющий партнер, Arenadata
Закончил МГТУ им. Н.Э. Баумана, работал в компаниях EMC, Jet, Avaya, Microsoft, Compaq. С 2013 по 2016 годы возглавлял представительство компании Pivotal в России, СНГ и Восточной Европе, где руководил проектами в области больших данных. В 2015 году инициировал проект разработки универсальной открытой платформы данных, результатом которого стал, в частности, сертифицированный Linux Foundation продукт Arenadata Hadoop. Член экспертного совета национальной премии CDO Award. Сейчас – управляющий партнер компании "Аренадата Софтвер".
От платформы управления данными к экосистеме цифровой компании

Движение компаний в сторону цифровой трансформации предъявляет новые требования к платформе работы с данными, как основе любой цифровизации – необходима динамическая масштабируемость, модульность, возможность работать с любыми доступными инфраструктурными средами, централизованная управляемость и открытость. Все это привело к появлению новых возможностей корпоративной платформы Arenadata Enterprise DataPlatform на базе открытого ПО, ставшей сегодня стандартом для ряда крупных компаний – платформа эволюционировала в открытую экосистему сервисов работы с данными через единый интерфейс управления и мониторинга, причем полностью независимую от инфраструктуры. Доклад посвящен обсуждению архитектуры централизованной системы управления сервисами Arenadata Cluster Manager, а также интеграционных протоколов и связей между компонентами платформы. Особое внимание уделено открытой экосистеме цифровых сервисов с единой системой управления, развертывания и мониторинга.
Вернуться
к докладчикам
Жирайр Казаросян, архитектор решений, OpsGuru, Google Cloud partner
Десять лет в ИТ-индустрии – внедрял Data Lake на стеке Hadoop в Lamoda Group, участвовал в разработке системы оплаты «Платон» и в автоматизации организации ДОМ.РФ, построил хранилище данных для команды Data Science и событийный коммуникационный центр в Промсвязьбанке. Специализируется на решениях в области больших данных и облачных архитектурах, использующих, в частности, технологии машинного обучения. Сейчас – архитектор блока облачных решений в сфере больших данных и машинного обучения компании OpsGuru, имеющей международный статус Google Cloud Partner и AWS Advanced Consulting Partner и работающей на рынках Израиля, Канады и США.
Google Data and Machine Learning Overview

Компании внедряют машинное обучение и нанимают исследователей данных (data scientists) в надежде повысить конкурентоспособность своего бизнеса, однако по сравнению с классическими инструментами, такими например, как управление бизнес-процессами, для большинства типовых задач, эффект выливается лишь в приросте на пару процентов. Тем не менее, на больших объемах применение новых инструментов дает ощутимый результат, несмотря на то, что их внедрение влечет большие инвестиции хотя бы в квалифицированных специалистов. В докладе рассматривается инфраструктура Google Cloud Platform, предназначенная для обработки данных и решения типовых задач машинного обучения с помощью инструмента Google AutoML, позволяющего исследователям данных экономить массу времени, перераспределяя его на решение наукоемких задач. Доклад интересен представителям предприятий малого и среднего бизнеса, в штате у которых нет дорогостоящих исследователей данных, но есть много рутинных задач, в которых находятся точки роста бизнеса. Кроме этого, в докладе рассмотрены инструменты загрузки данных в Google Cloud Platform, поступающих из различных источников; средства преобразования данных; различные СУБД для построения и эксплуатации озер данных (Data Lake), а также инструменты анализа и визуализации данных.
Вернуться
к докладчикам
Дмитрий Лазаренко, руководитель PaaS-направления, Mail.Ru Cloud Solutions
Как мы работаем с данными. Customer Data Platform


Вернуться
к докладчикам
Алексей Коваленя, технический консультант, Atos
Закончил МГТУ им. Баумана. Почти 20 лет в ИТ-индустрии – в компаниях Oracle, Symantec и Крок занимался проектами построения решений для ЦОД, защиты данных и обеспечения непрерывности бизнеса.
Периферийные вычисления: от Диснейленда до Maersk

По мнению аналитиков, к 2022 году 75% корпоративных данных будет создаваться и обрабатываться за пределами ЦОД и облаков – эту часть работы станут выполнять периферийные решения, что позволит компаниям отказаться от централизованных ЦОД, освободит корпоративные сети от необходимости передачи больших объемов данных, даст возможность бизнесу оптимизировать инфраструктуры обработки неструктурированных корпоративных данных. Вместе с тем, применение Edge-computing окажет существенное влияние на решения по управлению данными. Доклад посвящен обсуждению особенностей архитектуры и технологий Edge-computing. Особое внимание уделено разбору конкретных примеров применения периферийных вычислений на промышленных предприятиях, в ретейле и индустрии развлечений, в бизнесе логистических компаний и при реализации проектов «Умный город».
Вернуться
к докладчикам
Александр Тарасов, управляющий партнер, DIS Group
Закончил Белгородский государственный технологический университет им. В.Г.Шухова. Около 20 лет в сфере управления ИТ-проектами, управления инновационной деятельностью и управления данными (в том числе Data Governance). Работал старшим директором по развитию бизнеса компании БДО Юникон, начальником департамента ИТ в МРСК Центр, а также руководил проектами SAP в ряде организаций. Автор серии вебинаров Data Governance, член Экспертного совета премии CDO Award. Сейчас в компании DIS Group руководит отделом консалтинга и направлением Master Data Management.
Секреты монетизации данных

Монетизировать данные стремятся сейчас все, но мало кому удается сделать это оптимально – часто причиной неудач становится неэффективное управление соответствующими проектами. Доклад посвящен описанию модели конвейера сервисов монетизации корпоративных данных. Особое внимание уделено конкретным рекомендациям по настройке непрерывного выявления бизнес-задач для монетизации, выделению наиболее перспективных и доведению соответствующих проектов до финальной реализации: оптимизации бизнес-процессов, вывода новых продуктов на рынок, поиска новых партнеров, защиты персональных данных и т. п. Кроме этого, в докладе разбирается опыт внедрения стратегии Data Governance.
Вернуться
к докладчикам
Сергей Кузнецов, генеральный директор, «Юнидата»
Закончил математико-механический факультет СПбГУ, магистратуру управления при экономическом факультет, автор публикаций по субоптимальным алгоритмам, оптимизации хранилищ данных и криптографии. Более 20 лет в ИТ-индустрии: возглавлял группу разработчиков компании Enkata Inc, специализировавшейся в области аналитической обработки больших данных; в компании Siperian – решения класса MDM – руководил центром разработки; с 2010 по 2012 годы руководил российским подразделением компании Informatica; в 2012 году возглавил компанию TaskData, работающую в области управления информацией, обеспечения качества и очистки данных. С 2014 года возглавляет компанию «Юнидата».
Data Governance – вершина управления данными

Руководство данными (Data Governance) – деятельность по осуществлению руководящих и контрольных полномочий (планирование, мониторинг и обеспечение выполнения) по управлению информационными активами. Для достижения этих целей программа руководства данными включает разработку политик и процедур, культивирование практики распоряжения данными на различных уровнях внутри организации и инициацию мероприятий по управлению изменениями, направленных на активное разъяснение сотрудникам организации выгод от внедрения руководства данными и моделей деятельности, необходимых для успешного управления данными как активом.
Вернуться
к докладчикам
Владимир Панчук, главный эксперт, группа архитекторов, «Росатом»
Окончил МГУПС (МИИТ) по специальности вычислительные машины, комплексы, системы, сети. Около 20 лет опыта работы в ИТ. В 2001-2003 году для ПАО Сбербанк разрабатывал централизованную систему выявления террористов и должников в условиях полной децентрализации систем в филиалах банка. Затем разрабатывал централизованную систему для создания единой базы клиентов для ПАО Сбербанк. С 2009 года для АО «Альфа-Банк» разработал единое решения для обслуживания клиентов юридических лиц и участвовал во внедрение системы Pega BPM. Сейчас – архитектор корпоративных систем, занимактся разработкой архитектуры в рамках программ цифровой трансформации.
Данные для цифрового двойника

Традиционное проектирование работает с двухмерными моделями объектов строительства: планы, чертежи и техническая документация, однако BIM-проектирование (Building Information Model, Информационное моделирование объектов) существенно отличается от прочих видов проектных работ. Сбор и обработка данных об архитектурно–планировочных, конструктивных, экономических, технологических, эксплуатационных характеристиках объекта объединены в едином информационном поле (BIM-модели). Доклад посвящен обсуждению понятия «цифровой двойник», необходимости создания цифровых двойников для задач BIM и демонстрации того, как 3D-моделирование позволяет упростить строительство. Кроме этого анализируются проблемы, возникающие при создание сложных объектова (АЭС), разбираются особенности хранения наборов моделей и их обновления. Особое внимание уделено Multi-D-моделированию, позволяющему существенно сократить сроки и стоимость строительства благодаря эффективному управлению процессами сбора данных из разрозненных систем, их интеграции и дополнения, а также доставки нужную точку.
Вернуться
к докладчикам
Данила Наумов, Chief Data Officer, «Утконос»
Закончил кафедру Математической статистики ВМК МГУ им. М.В.Ломоносова. Работал в компании SAS Russia, где занимался применением математических методов для решения бизнес-задач в интересах таких компаний, как «Пятерочка», «36.6», МТС Ритейл, Сбербанк, РЖД, Enel, КазАтомПром, НацБанк Казахстана и Банк России. Сейчас в компании «Утконос» курирует процессы внедрения продвинутой аналитики в бизнес-процессы, создание и эксплуатацию аналитического хранилища данных и систему подготовки аналитической отчетности.
Управление данными в ретейле

Успех бизнеса любой компании розничной торговли неизбежно зависит от уровня оптимизации логистики и товарных запасов, эффективности ценообразования и ассортиментного планирования, прогнозирования спроса и организации целевого маркетинга. Решать все эти задачи ретейлу необходимо в условиях динамично изменяющейся конкурентной среды, непрерывно отслеживая спрос и предлагая клиентам персональные релевантные предложения, включая и продукты под собственными торговыми марками, однако для этого нужно уметь учитывать все доступные компании данные, поступающие из разнообразных источников. Доклад посвящен обсуждению вопросов построения архитектуры работы с данными, функциональному сравнению имеющихся на рынке инструментов и оценке кейсов по их выбору. Особое внимание уделено особенностям процесса решения задач продвинутой аналитики и секретам формирования команды Data Office.
Вернуться
к докладчикам
Сергей Горшков, директор, "ТриниДата"
Более 20 лет опыта создания сложных автоматизированных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, работающих сегодня на крупнейших отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий».
Практика управления корпоративными данными на основе онтологических моделей

Для управления данными со сложной, изменчивой структурой стандартных инструментов не достаточно – попытки затолкать в реляционную СУБД данные, описывающие тысячи типов информационных объектов и их связи, обычно приводят к появлению трудно управляемых и крайне дорогих в сопровождении систем. Кроме сложности поддержки такой структуры возникает жесткая связь алгоритмов работы со спецификой обрабатываемых данных, что не способствует гибкости решения. Один из способов организации управления одновременно и структурой данных, и логикой их обработки – применение онтологических моделей. В докладе разбираются практические сценарии создания и использования онтологических моделей, образующих ядро информационной инфраструктуры предприятия. Особое внимание уделено конкретным инструментам реализации стратегии управления данными на протяжении всего их жизненного цикла, начиная от проектирования структуры и сбора информации, до получения значимых результатов на конкретных крупных предприятиях, работающих сегодня в различных отраслях экономики России.
Вернуться
к докладчикам
Сергей Исаев, генеральный директор, DataFabric
Получил три высших образования: инженер связи, специалист в области маркетинга, психолог. Двадцать лет опыта работы в области управления проектами, в том числе создания интеллектуальных информационных систем на основе инженерии знаний. Работал в компании Центр Речевых Технологий, где занимался развитием виртуальных ассистентов для контактных центров.
Системы виртуализации данных на основе семантической модели

Скоринг – сбор из разных источников всех необходимых данных об объекте оценки, применение оценочных правил и формирование результата оценки – как нельзя лучше иллюстрирует необходимость, проблемы и преимущества эффективной организации управления данными. Действительно, данные могут размещаться в разных местах и в разном формате; у данных имеется своя актуальность; их требуется нормализовать и доставлять в нужное место; необходимо четко понимать их происхождение, а также кто за них отвечает. Применительно к скоринговой модели все это означает необходимость оперирования сущностями из базы данных для анализа, что затруднительно без специальной технической подготовки. Доклад посвящен обсуждению особенностей создания аналитической системы скоринга, работающей на основе правил и описаний, оперирующих понятными любому человеку терминами и определениями. Особое внимание уделено архитектуре решения на базе графа знаний и семантического каталога.
Вернуться
к докладчикам
Алексей Никифоров, руководитель подразделения технологических решений, Hitachi Vantara
Закончил МИФИ, факультет "Информационная безопасность". Около 20 лет опыта работы в ИТ – финансовые организации и компании-системные интеграторы. В 2016 году возглавил подразделение технологических решений компании Hitachi Vantara в России и странах СНГ где занимается решениями в области цифровой трансформации и реализацией социальных инноваций на основе технологий эффективного управления данными, искусственного интеллекта, интернета вещей и аналитики больших данных.
Экосистема объектного хранения: интегрированное управление данными

Системы хранения на уровне объектов давно и успешно применяются в решениях управления данными, однако взрывной рост объемов данных, их типов и числа источников порождают новые сложные задачи управления богатым ландшафтом корпоративных данных. Все больший интерес ИТ-сообщества вызывают, например, технологии, обеспечивающие доступ к данным по протоколу S3 и гарантированно быстрый поиск в огромных массивах неструктурированных данных. Компания Hitachi Vantara за последние 10 лет выстроила на базе своих технологий целостную экосистему объектного хранения, позволяющую решать данные задачи. Доклад посвящен обсуждению современных тенденций в сфере управления данными и разбору возможностях технологий объектного хранения. Особое внимание уделено представлению реальных кейсов предприятий, уже прошедших путь от понимания необходимости модернизации процесса управления данными до развертывания экосистемы эффективной поддержки всего жизненного цикла данных.
Вернуться
к докладчикам
Алексей Мергасов, начальник Отдела разработки перспективной платежной системы, РЦР Казань, Банк России
Закончил Казанский авиационный институт (Казанский национальный исследовательский технический университет им. А. Н. Туполева), почти 15 лет в ИТ-индустрии – работал в руководителем RnD продукта Informatica Data Replication в компании Informatica, затем в исследовательской лаборатории Huawei, а потом в Банке России. Сооснователь компании Noxa Data Lab. Разработчик курса Data-Driven Enterprise в Университете «Иннополис».
HTAP в крупных финансово-учетных системах

Деятельность любой крупной компании или организации сегодня невозможна без информационной систем корпоративного уровня, призванной обеспечить оперативное реагирование на изменение в окружающем мире (коррекция законодательства, смена бизнес-рисков и пр.) В таких условиях управление жизненным циклом системы традиционными средствами («водопад», «контрольные точки», и др.) уже невозможно – требуется система сквозного проектирования, Requirement Engineering становится основной дисциплиной, определяющей стоимость разработки и поддержки любого ИТ-продукта цифрового предприятия, а гомогенная платформа становится основной архитектурной парадигмой. Современные платформы могут легко объединять функции систем принятия решений, транзакционных, процессно-ориентированных и аналитических систем, однако особую остроту приобретают вопросы транзакционной чистоты (ACID), непротиворечивости модели данных и масштабируемости. Доклад посвящен обсуждению вопросов применения гибридной обработки данных (HTAP) для разработки и поддержки крупных финансово-учетных систем. Как выбрать HTAP и связать эволюцию схемы данных в распределенном хранилище с прикладным кодом? Нужен ли в этих условиях SQL? Особое внимание уделено разбору задачи обеспечения тестирования и интегрированности данных в корпоративных информационных системах.
Вернуться
к докладчикам
Никита Кардашин, руководитель отдела развития интеллектуальных систем, Naumen
Более десяти лет в ИТ-индустрии, обладает профильным опытом работы в компаниях розничной торговли, информационно-технологической и телекоммуникационной сферы. Занимался управлением проектами и продуктами, участвовал в ряде проектов для компаний и организаций государственного, энергетического и финансового сектора. С сентября 2017 года возглавляет Направление анализа данных и машинного обучения в Департаменте систем автоматизации ИТ и процессов обслуживания компании Naumen, где отвечает за развитие и продвижение продуктов Naumen Service Management Intelligent Automation и Naumen Business Services Monitoring, а так же услуг в сфере аналитики данных.
Управление данными для оптимизации бизнес-процессов

Основная задача любого бизнеса в современной экономической обстановке – сохранение, а в идеале – и повышение рентабельности. Достигнуть этого можно лишь оптимизируя бизнес-процессы предприятия, однако неясно что такое «оптимальный» процесс и как отличить его от не оптимального? Здесь могут помочь решения, основанные на данных, например, предиктивная бизнес-аналитика, но возникают новые вопросы: какие для этого потребуются данные, на какие метрики надо опираться, как собирать и как использовать данные? Доклад посвящен ответам на эти и другие вопросы, разбору конкретных задач управления данными, возникающих, начиная от стадии проектирования до стадии пост-оценки бизнес-процессов.
Вернуться
к докладчикам
Артем Меркулов, руководитель бизнес-направления Big Data Solutions, «Неофлекс»
Окончил Московский Физико-Технический Институт по специализации аналитические решения и системы отчетности. Более 10 лет опыта работы в области ИТ для финансовых организаций. Руководил проектами по созданию хранилищ данных, систем отчетности и заказных аналитических решений, в частности для «Национального Клирингового Центра». Сейчас в компании «Неофлекс» отвечает за разработку новых решений и услуг, в том числе за развитие продукта Neoflex Reporting Big Data Edition.
Большие данные: просто как «Hello world»

При обсуждении любого проекта работы с большими данными неизменно всплывают общеизвестные проблемы: дефицит и дороговизна квалифицированных сотрудников, сложность интеграции множества информационных систем и программных продуктов, включая и OpenSource, требование сокращения времени вывода на рынок решений со сложной топологией сред и бизнес-процессов. Использование платформы быстрой разработки и эксплуатации решений работы с большими данными позволяет значительно снизить риски. Доклад посвящен обсуждению подходов к построению и использованию платформы разработки и эксплуатации приложений работы с большими данными и разбору архитектуры решения по управлению корпоративными данными. Особое внимание уделено анализу практических кейсов применения платформы в проектах аналитики больших данных.
Конференция для:
директоров по стратегии и инновациям;
директоров по развитию и цифровой трансформации;
технических директоров, ИТ-директоров, директоров по данным;
архитекторов и разработчиков информационных систем;
бизнес-аналитиков, исследователей и аналитиков данных;
менеджеров проектов, программ и продуктов.
Премиум партнер
Генеральные партнеры
Партнеры
Участники EXPO
Информационные партнеры
Close
Close
Для связи с организаторами
conf@osp.ru
Подать заявку на доклад
Пожалуйста, укажите свои контакты,
тему и аннотацию доклада
Публикации