ПРЕДПРИЯТИЕ, ОСНОВАННОЕ НА ДАННЫХ:
стратегии, архитектуры, платформы, практики

12 ноября 2020
Palmira Business Club
РОССИЯ, МОСКВА

Форум «Управление данными 2020»

Форум на одной площадке объединяет всех, кто определяет стратегию работы с корпоративными данными на всем протяжении их жизненного цикла, и всех, кто воплощает ее в жизнь с помощью конкретных архитектур, политик, процедур и технологий.

ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства
«Открытые системы».
Сегодня никто не учит понимать данные, а между тем, как показал нынешний кризис, наведение порядка в работе с данными дает больше, чем инвестиции в модные технологии. Цифровизация — это не про технологии, а про культуру работы с данными.
  • Как из сырых сведений получить знания для построения новых бизнес-моделей монетизации данных?
  • Как организовать управление корпоративными данными и в реальном времени обеспечить их мониторинг и аудит качества?
  • Чему учит лучший опыт предприятий, уже развернувших у себя аппаратно-программные инфраструктуры управления данными?
Все ответы – на нашем форуме «Управление данными 2020».
В программе:
Бизнес-модели
  • Основные бизнес-процессы управления данными, корпоративная модель данных
  • Создание цифровой команды (CDO, CTO, CDTO, владельцы и стюарды данных, эксперты предметной области, исследователи данных и инженеры по данным)
  • Учет информационных ресурсов и аналитических моделей
  • Управление требованиями к данным (классика и agile), сбор данных и формирование единой версии правды для всей организации
  • Секреты управления метаданными (бизнес-глоссарий, каталог активов и моделей данных, нечеткий поиск, анализ происхождения и зависимости данных)
  • Мониторинг, контроль и управление инцидентами качества данных
  • Аналитическая обработка, принятие решений на основе данных и монетизации данных
Стратегии
  • Стратегия, политики и процедуры управления данными
  • Квалифицированные кадры для работы с данными и формирование культуры принятия решений на основе данных
  • Коллективное управление информационными активами (данные, документы, контент, аналитические модели и метаданные)
  • Самообслуживание, демократизация данных и их анализа
  • Ошибки и проблемы при построении системы управления данными
  • Как повысить доверие к данным и бизнес-результатам?
  • Безопасность доступа к данным
Архитектуры
  • Шаблоны интеграции данных («озеро», хранилище, фабрика данных, MDM, data hub, типовые витрины отчетности, XBRL)
  • «Умные» технологии анализа данных (бизнес-аналитика, исследование данных, прогнозирование, искусственный интеллект, большие данные, визуализация и дополненная аналитика)
  • Ландшафт корпоративной модели данных
  • Архитектура поддержки цифровых двойников
  • Шаблоны управления качеством данных
  • Архитектура управления метаданными
  • Технологии и стили управления документами и контентом (Data Room, Adaptive Content Management, NewSQL, NoSQL, HDFS, In Memory, HTAP)
Платформы и инструменты
  • Коммерческие и открытые платформы управления данными
  • Инструменты интеграции данных (Informatica, Pentaho, Syncsort Trillium, Talend, Teradata, Unidata и др.)
  • Средства управления мастер-данными (Informatica, SAS,TIBCO, Talend, Unidata и др.)
  • Управление качеством данных (Informatica, SAS,Talend, Unidata, и др.)
  • Инструменты сбора, хранения и обработки данных, платформы и инструменты бизнес-аналитики
  • Средства управление метаданными, Data Governance (Informatica, Unidata и др.)
  • Облачные решения, централизованные и распределенные программно-аппаратные комплексы
Практика управления данными
  • Материально-техническое обеспечение
  • Промышленность, информационные технологии, финансовые рынки, транспорт, телеком, ТЭК, цифровое государство, медицина, юриспруденция, рекрутмент; 10+ отраслей.
Вернуться
к докладчикам
Алена Дробышевская, Яндекс.Облако
Окончила факультет ВМиК МГУ им. М.В. Ломоносова. Более 20 лет опыта работы в ИТ-индустрии – специализация: хранение и анализ данных, искусственный интеллект и машинное обучение, облачные технологии. Работала в компании KPMG, где возглавляла практику «Данные и аналитика», оценивала и внедряла решения с применением методов машинного обучения в интересах крупных российских предприятий. В компании Microsoft отвечала за продвижение решений для хранения и анализа данных, а также решений класса «Artificial Intelligence», в том числе с применением облачных технологий. До прихода в Microsoft работала в Oracle, где отвечала за продвижение на российский рынок хранилищ данных, платформы управления данными и инструментов бизнес-анализа. Имеет опыт открытия в России дочерней компании венгерского производителя ПО для банков в области управления рисками и автоматизации процессов кредитования, управления залогами. Сейчас, в компании Яндекс.Облако руководит направлением развития платформы машинного обучения, принимает участие в проектах, связанных с анализом данных и построением моделей на основе технологий искусственного интеллекта.
Данные для глубинного обучения

Мир становится цифровым – все больше компаний и организаций во всем мире меняют свои бизнес-модели, стремясь максимально полно использовать все доступные им данные для учета текущих и прогнозирования будущих потребностей своих клиентов и заказчиков. Растет важность машинного обучения при анализе данных и построении прогнозных моделей. Доклад посвящен анализу особенностей каждого этапа обработки данных и инструментов, применяемых в течение жизненного цикла систем искусственного интеллекта. Особое внимание уделено обзору сервисов, используемых для сбора, хранения, обработки и первичного анализа данных для построения моделей глубинного обучения и визуализации результатов. На конкретных примерах раскрывается процесс решения прикладных задач с использованием сервисов Yandex DataSphere, DataLens, Data Proc и др.
Вернуться
к докладчикам
Александр Скоробогатов, Micro Focus
Окончил Тверской Государственный Технический Университет. Более 20 лет опыта работы в
ИТ-индустрии. Карьеру начался с разработки систем мониторинга и нагрузочного
тестирования, имеет богатый опыт проектирования, администрирования хранилищ данных и
развития вычислительной инфраструктуры ЦОД, принимал участие в развертывании
конфигураций на базе решений SAP (включая SAP HANA), возглавлял проекты миграции
ИТ-сервисов. Сейчас – архитектор решений Vertica в России и СНГ.
Как построить унифицированное аналитическое хранилище

С ростом объемов хранения и обработки данных все чаще возникает вопрос – где же
находится в настоящий момент актуальная версия данных? Где лежат данные, готовые к
отображению? Это значит, что обработку данных необходимо осуществлять максимально
близко к местам их размещения, избегая создания лишних копий в разных информационных
системах. Доклад посвящен обсуждению требований, предъявляемых к современным
хранилищам данных: гибридное развертывание, наличие аналитических функций,
возможность масштабируемости и высокая производительность на петабайтных объемах.
Особое внимание уделено разбору примеров по оптимизации инвестиций в корпоративные
инфраструктуры обработки данных, построенные на базе решений с открытым кодом. Кроме
этого рассматриваются различные варианты построения конвейера для глубокой обработки
данных с помощью СУБД Vertica.
Вернуться
к докладчикам
Роман Гоц, Atos
Около 20 лет опыта работы в области информационных технологий: занимался развитием бизнеса в крупных технологических компаниях, управлял федеральными и макрорегиональными проектами, возглавлял управление федеральной розницей и расширением региональной партнерской сети. Сейчас – директор по развитию бизнеса компании Atos в России, где руководит департаментом больших данных и безопасности, предоставляющим решения на базе оборудования Atos для предприятий различных отраслей экономики.
Данные – это про прибыль. Решения для работы с Big Data

Данные сегодня имеют критически важное значение, позволяя компаниям создавать инновационные решения, получать конкурентные преимущества и принимать более взвешенные решения. Однако, управление данными создает для компаний большие трудности – цифровая трансформация невозможна без надежной архитектуры работы с данными и соответствующих аппаратно-программных решений. Доклад посвящен обсуждению комплексных систем от компании Atos, специально предназначенных для работы с большими данными и средствами видеоаналитики.
Вернуться
к докладчикам
Сергей Раков, «Ростелеком»
Окончил Национальный исследовательский университет «Московский институт электронной техники». Около 10 лет в ИТ-индустрии: технический специалист по поддержке сайтов, руководитель проектов по разработке продуктов. Сейчас – руководитель направления B2G (business-to-government) в компании «Ростелеком», где отвечает за платформу видеонаблюдения на выборах и ЕГЭ.
Яндекс.Метрика в проектах федерального масштаба

Обеспечение эффективного функционирования любого сайта невозможно без накопления и анализа статистики его эксплуатации, например с целью изучения поведения действий пользователей на порталах по видеонаблюдению. Как оптимально собирать статистические данные на проектах федерального уровня не потратив огромных средств и не сорвав сроки? Нужен ли свой собственный сервис или можно взять готовый? Доклад посвящен обсуждению опыта применения сервиса Яндекс.Метрика, используемого для изучения поведения пользователей на портале, сбора сведений о используемых ими устройствах, браузерах, разрешениях и т.д. с учетом нестандартных задач, решаемых федеральными порталами, за которые отвечает «Ростелеком». Особое внимание уделено анализу конкретных примеров передачи и обработки произвольных наборов данных, а также их использованию при анализе в совокупности со стандартными данными, собираемыми сервисом Яндекс.Метрика для формирования витрин данных, группировки и сегментации. Все это иллюстрировано в докладе на примере разбора конкретных сценариев использования параметров пользователей и результатов их визитов на портал: длительность просмотров трансляций по объектам, сбор статуса трансляций в плеере пользователя, работа с поиском и пр.
Вернуться
к докладчикам
Александр Хайтин, «Mechanica AI»
Более 20 лет в ИТ-индустрии, специализируется на консалтинге, разработке и внедрении передовых для своего времени технологий. Работал в «КОРУС консалтинг», где занимался анализом и изменением бизнес-процессов заказчиков, а также внедрением различных информационных систем. В Yandex Data Factory отвечал за разработку и внедрение решений на основе технологий машинного обучения. Сейчас – генеральный директор и со-основатель компании Mechanica AI, специализирующейся на проектах искусственного интеллекта в промышленности: металлургия, химическая индустрия, нефтехимия.

Дмитрий Карбасов, Евразийская Группа

Более десяти лет работает в сфере развития и трансформации бизнеса в компаниях ИТ-интеграторах и вендорах. Имеет богатый опыт практического применения технологий искусственного интеллекта, а также в управлении разработкой и развитии инновационных ИТ-продуктов и сервисов. Сейчас, в международной группы компаний Евразийская Группа (Eurasian Resources Group) руководит управлением промышленного искусственного интеллекта где за полтора года «с нуля» создал подразделение, ведущее проекты по созданию и внедрению технологий ИИ в производственные процессы добычи, переработки и производства алюминия, а также сплавов феррохрома. Кроме этого отвечает за решение задач оптимизации планирования и закупок.
Инвентаризация данных

Для реализации проектов с использованием искусственного интеллекта необходима обучающая выборка на основе данных, используемых для управления производством и можно ожидать, что достаточно просто взять архив таких данных и начать работать. Однако, это не так. При оперативном управлении применяется комбинация оцифрованных и архивных данных (вес, температура, химический состав и т. п.), а также сведения, непосредственно доступные оператору (цвет и объем дыма, шумы от оборудования и т.д.). Кроме того, даже цифровые данные не всегда хранятся после отображения в интерфейсе, а если и хранятся, то могут содержаться в анонимных таблицах без описаний и вне привязки к процессу и оборудованию. Ситуацию усугубляет еще и то, что чаще других теряются наиболее ценные данные: диагностированные проблемы, принятые меры и пр. Если предприятие собирается использовать машинное обучение для для улучшения своих производственных процессов, то стоит начинать именно с инвентаризации данных – простой, нудной работы, но позволяющей понять, какие именно данные используются, какая часть из них накапливается и в каком виде, а какая полностью теряется сразу после использования. В докладе на конкретных примерах показано, как относительно просто провести инвентаризацию данных, позволяющую подготовить почву для проектов по реализации предсказательных и рекомендательных моделей.
Вернуться
к докладчикам
Александр Гурко, НП «ГЛОНАСС»
Более 20 лет работает в сфере телекоммуникаций, на различных руководящих должностях курируя проекты ГЛОНАСС: президент некоммерческого партнерства «Содействие развитию и использованию навигационных технологий» (НП «ГЛОНАСС»); соруководитель рабочей группы по реализации и разработке дорожной карты «Автонет 2.0» Национальной технологической инициативы; член Совета при президенте РФ по модернизации экономики и инновационному развитию России, также Комиссии при президенте РФ по вопросам развития авиации общего назначения и навигационно-информационных технологий на основе системы «ГЛОНАСС»; руководитель рабочей группы по вопросам развития беспилотных летательных аппаратов, авиационных систем и авиационных видов спорта. Руководил проектами по созданию государственной системы «ЭРА-ГЛОНАСС», Единой системы управления наземным городским транспортом Московской агломерации, систем мониторинга транспорта для МВД России, МЧС России, «Почты России» и ОАО «Транснефть».

Игорь Кравченко, «Рексофт»

Почти 30 лет опыта работы индустрии разработки ПО – создание масштабных информационных систем для госкорпораций и государственных информационных систем федеральных уровня. Эксперт в области создания платформ обработки данных и телематических систем промышленного назначения. Руководил, в частности, проектами создания и внедрения системы сбора и обработки телематических данных для ведущего автопроизводителя, а также федеральной системы миграционного учета. Сейчас в компании «Рексофт» курирует вопросы, связанные с инновационными рынками и технологиями.
Платформа «Автодата»: управление автомобильными данными

Национальная навигационно-телематическая платформа «Автодата» призвана обеспечить формирование массива статистических и аналитических данных о колесных транспортных средствах, дорожной инфраструктуре, а также сопутствующей информации в транспортной сфере, связанной с логистикой людей и вещей. Платформа должна позволить сформировать массив данных по всему жизненному циклу автомобиля с момента его выпуска в обращение до утилизации: данные о функционировании бортовых систем, поведение водителя, телеметрия взаимодействия с автотранспортной инфраструктурой, а также создать цифровую среду для поддержки движения транспорта с различными степенями автоматизации по дорогам общего пользования. Доклад посвящен обсуждению задач, которые должна решать «Автодата», источников данных для нее и логики их сбора, особенностей их верификации, обогащения и обработки, а также перспектив применения платформы автомобильных. Особое внимание уделено обзору архитектуры платформы.
Вернуться
к докладчикам
Федор Краснов, Naumen
Окончил Национальный исследовательский ядерный университет «МИФИ», факультет экспериментальной и теоретической физики. С 2005 года отвечал за цифровую трансформацию в телеком-операторе AKADO Group в должности вице-президента по развитию бизнеса. В 2011 году был назначен директором по цифровизации Фонда «Сколково», в 2014 году перешел на аналогичную позицию в Интер РАО ЕЭС. С 2015 года работал в «Газпром Нефть НТЦ», где занимался задачами аналитической сейсмики и обработки естественного языка. Имеет международные сертификаты по машинному обучению и анализу больших данных, автор более 50 научных статей. Получил степень MBA в London Metropolitan University. Сейчас – директор департамента информационных систем управления в компании Naumen, где отвечает за управление инновационной деятельностью компании и развитие продуктового направления на базе технологий искусственного интеллекта и анализа больших данных.

Кира Есаулова, Naumen

Окончила Государственный университет управления Институт психологии и социологии управления. На различных руководящих должностях работала в Университете управления, Институте проблем глобализации, участвовала в масштабных проектах Минобрнауки России и МИД России. Автор ряда научных публикаций, эксперт Фонда развития интернет инициатив, входит в рабочие группы Минобрнауки России, МИД России и Правительства Российской Федерации. Сейчас – руководитель направления интеллектуального анализа и поиска данных компании Naumen.
Интеллектуальный анализ документов

Объем неструктурированных данных в компаниях сегодня растет в геометрической прогрессии и составляет уже тера- и петабайты различной технологической, проектной и нормативно-методической документации, публикаций и научной литературы. При отсутствии консолидированного хранилища и инструментов поиска компании сталкиваются с проблемой использования всех этих накопленных данных, на поиск и обработку которых сотрудники часто тратят слишком много времени. Системы корпоративного поиска (Enterprise Search), построенные на базе технологий искусственного интеллекта и средств обработки естественного языка потенциально способны значительно ускорить процесс поиска информации, максимально релевантной запросам. В докладе на конкретных примерах обсуждаются возможности применения систем интеллектуального поиска и анализа документов для автоматизации работы различных групп пользователей.
Вернуться
к докладчикам
Олег Сурков, «Росатом»
Окончил «Санкт-Петербургский государственный университет экономики и финансов» по специализации финансовый менеджмент. Более десяти лет опыт в сфере управления данными – успешно реализовал ряд крупных проектов в сфере автоматизации ключевых бизнес-процессов, а также цифровых проектов по созданию продуктов и платформ управления данными. Имеет опыт внедрения, адаптации, модификации международных фреймворков, а также опыт создания новых фреймворков для управления данными. Сейчас – руководитель управления корпоративных данных, где отвечает за создание системы управления с помощью данных в периметре ГК «Росатом».

Дмитрий Рудаков, «Росатом»

Окончил «Братский индустриальный институт» по специальности сети и системы энергетического факультета. Более двадцати лет опыта работы в области информационных технологий. Богатый опыт внедрения корпоративных систем и построения централизованных систем НСИ. Эксперт межотраслевых и федеральных рабочих групп. Сейчас возглавляет службу корпоративной системы НСИ ГК «Росатом».
НСИ – связующее звено: Data Governance и Data Management

Комплекс мероприятий по созданию системы управления с помощью данных включает широкий спектр процессов: управление стратегией компании, управление ИТ-стратегией, управление проектной деятельностью, управление разработкой и сервисной поддержкой ИТ-активов. На практике нередки случаи совмещения понятий Data Governance (DG), представляющего, по сути, законодательную «ветвь власти», и Data Management (DM) – исполнительной «ветви власти». В связи с этим часто возникает вопрос, что именно из себя представляет «Управление данными», как оно ими управляет и управляет ли вообще? В ГК «Росатом» используются сложные технологические процессы, используемые при проектировании и сооружении крупномасштабных энергетических установок, в машиностроении, добычи полезных ископаемых и генерации электроэнергии. Применение корпоративных системы НСИ позволяет унифицировать обмен данными в отраслевых бизнес-процессах, повысить их эффективность и подготовить основу для внедрения подходов и методологий DG и DM. В докладе раскрываются ключевые различия между понятиями DG и DM, а также обсуждается роль и важность НСИ, как главного средства связи между уровнем контроля и прикладным уровнем, позволяющего наполнять метаданные данными.
Вернуться
к докладчикам
Сергей Степанов, «Газпром нефть»
Окончил Тюменский государственный университет по специальности «Информационные технологии в геологии и геоинформатике». Почти 15 лет опыта работы в ИТ-индустрии: архитектор баз данных, разработчик и аналитик. Сейчас – руководитель направления по ИТ, сектор качества данных и ИТ-сопровождения Центра управления добычи «Газпромнефть Ямал», где отвечает за настройку механизмов поставки, использования данных в рамках процессов операционной деятельности: «Интегрированная модель актива» и «Интегрированный план актива».

Лев Зуев, «Газпром нефть»

Окончил Санкт-Петербургский государственный университет экономики и финансов (ФИНЭК) по специализации «Финансы и Кредит». Более десяти лет опыта руководства ИТ-проектами и программами управления экономическими процессами и данными. Сейчас – ИТ-бизнес партнер программ Блока разведки и добычи «Газпром нефть» (БРД), где отвечает за программу «Управление данными БРД».


Управление данными в интегрированном планировании

Интегрированное планирование объединяет всю цепочку создания стоимости от переработки до сбыта с целью создания сквозного плана, позволяющего минимизировать риски несоответствия между спросом и предложением – компания должна производить ровно столько нефтепродуктов определенной номенклатуры, сколько может перевезти и реализовать для удовлетворения потребностей рынка. Такое планирование дает возможность оперативно и эффективно управлять жизненным циклом продукта по всей цепочке добавленной стоимости с учетом существующих ограничений и имеющихся возможностей. Доклад посвящен обсуждению бизнес-задач, проблем, преимуществ и результатов реализации проекта интеграционного планирования: оптимизационная модель (функционирование, вход-выход); изменения по итогам реализации проекта – сложности и пути их преодоления. Особое внимание уделено анализу процессов работы с данными – что пришлось поменять в работе с данными, основные проблемы и решения, изменение отношения к данным в бизнесе.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта создания сложных автоматизированных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, работающих сегодня на крупнейших отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий».

Константин Кондратьев, «ТриниДата»

Специалист по Machine Learning и Natural Language Processing. Участвовал в работе над проектами с применением технологий машинного обучения для компаний Вымпелком и Яндекс. В компании «ТриниДата» руководит направлением применения машинного обучения в связке с онтологиями.
Обработка корпоративной информации на естественном языке

Люди обычно предпочитают работать с информацией на естественном языке, а не со структурированными данными – текстовые документы составляют значительную часть данных и значительный объем знаний предприятия. Вместе с тем, до сих пор наиболее распространенный способ работы с такими документами – полнотекстовый поиск, не учитывающий смысла обрабатываемых текстов. Большинство существующих сегодня средств интерпретации естественного языка опираются на использование нейросетей, работа которых часто не поддается анализу, результаты иногда необъяснимы и неожиданны. Альтернатива – использование правил разбора текста, применимых, однако, только для решения относительно локальных задач. Сделать следующий шаг в обработке информации на естественном языке позволяет совместное использование онтологий, как средства представления концептуальных и языковых моделей, и методов машинного обучения. В фокусе доклада – методы и инструменты работы со смыслом, заложенным в текстовой информации: преобразование запросов аналитиков на естественном языке в запросы к структурированным данным; интеграция методов обработки информации на естественном языке со средствами консолидации корпоративных данных; извлечение смысловых конструкций из текстов на естественном языке с целью индексации и автоматизированного аннотирования.
Вернуться
к докладчикам
Эдуард Олевинский, Правовое бюро «Олевинский, Буюкян и партнеры»
Окончил юридический факультет Высшей школы приватизации и предпринимательства, а также и факультет психологии МГУ им. М.В.Ломоносова. Более 30 лет опыта работы на рынке юридических услуг, основатель и руководитель компании «Правовое бюро «Олевинский, Буюкян и партнеры», специализирующейся в области сопровождения процедур банкротства.

Александр Колчин, Правовое бюро «Олевинский, Буюкян и партнеры»

Окончил факультет «Системы управления летательными аппаратами» Московского авиационного института. Около 30 лет опыта работы в сфере общественных коммуникаций и корпоративного управления: The PBN Company, R&R Advertising, «Мобил Телеком», «Русские ВЕБ-ресурсы». Сейчас − партнер компании «Правовое бюро «Олевинский, Буюкян и партнеры».
Что нужно юристам в эпоху цифровой трансформации?

Работа юристов, как правило, оплачивается исходя из почасовой ставки – время стоит серьезных денег, которые платит либо клиент, ожидаемо не желающий нести расходы на техническую, с его точки зрения, работу, либо юридическая компания, что снижает ее billable rate (эффективность труда). Как одна из наиболее консервативных областей – юриспруденция переживает эпоху цифровой трансформации? Что нужно для того, чтобы клиенты не платили за подготовку рутинных документов и поиск данных в различных источниках, а юристы прежде всего занимались защитой интересов своих клиентов, а не тратили время на непроизводственную деятельность? Как организована интеграция с открытыми данными и что сегодня происходит в сфере информатизации деятельности юристов? Доклад посвящен ответам на эти вопросы, формулировке требований к «идеальной» системе для юриспруденции и обзору имеющихся на рынке решений (LegalTech) информатизации работы юристов. Особое внимание уделено анализу опыта эксплуатации интегрированной системы, созданной в правовом бюро «Олевинский, Буюкян и партнеры», а также обсуждению перспектив ее развития и еще не решенных задач в области цифровизации юриспруденции.
Вернуться
к докладчикам
Иван Вахмянин, Visiology
Окончил МИФИ по специальности «Информационное обеспечение экономических процессов», аспирантуру Российской академии государственной службы при президенте РФ по специальности «Информационные технологии в управлении» и Московскую школу управления «Сколково». Эксперт в сфере разработки ПО для анализа и визуализации данных. Сейчас – генеральный директор компании Visiology, где руководит созданием и развитием аналитической платформы бизнес-аналитики.
ViXtract – открытый инструмент загрузки и преобразования данных


Вернуться
к докладчикам
Наталья Мусорина, «Ростелеком»
Окончила МИФИ по специальности «Прикладная ядерная физика». Около 15 лет опыта работы с данными: Сбербанк России, «Газпромбанк», банк «Открытие». Сейчас – директор департамента управления данными в компании «Ростелеком», где отвечает, в частности, за бизнес-системный анализ данных, внедрение операционных процессов управления данными, разработку сервисов и инструментов управления данными.

Александр Юрасов, «Ростелеком»

Окончил Московский государственный индустриальный университет по специальности прикладная информатика в экономике и управлении. Более 10 лет опыта в сфере построения отчетности и управления данными: в «Вымпелком» занимался развитием хранилищ данных и отчетностью бизнес-аналитики для стран СНГ; в Альфа-банке руководил проектами по развитию отчетности по Российским стандартам бухгалтерского учета и Международным стандартам финансовой отчетности. Сейчас – руководитель направления по развитию информационных сервисов департамента управления данными в компании «Ростелеком».
DataGovernance своими силами

Для того, чтобы данные стали ценным активом компании, необходимо, чтобы все ее сотрудники понимали, какими данными они владеют, где их можно получить и как использовать. Как показывают исследования, в крупных компаниях при решении задач работы с данными, от 40 до 80% времени уходит на их поиск. Однако, на практике ситуация еще хуже – данные могут быть безнадежно устаревшими, избыточными, многократно дублированными, либо о их существовании известно лишь узкому кругу пользователей. Данными нужно уметь эффективно управлять и на сегодняшний день на рынке имеются соответствующие решения класса DataGovernace, однако и они часто не позволяют решать конкретные задачи предприятия. Доклад посвящен обсуждению опыта разработки концепции DataGovenance в компании «Ростелеком». Особое внимание уделено анализу причин отказа от внедрения коробочного решения и инициации создания собственного инструмента документирования данных на основе стека Open Source.
Вернуться
к докладчикам
Роман Стрекаловский, «Юнидата»
Около 20 лет опыта работы в качестве архитектора и руководителя проектов – прошел путь от тестировщика, создающего мидлеты для проверки JVM на мобильных телефонах первых поколений и руководителя проектов, до основателя компании, предлагающей рынку инновационные ИТ-решения: Motorola; T-Mobile,Yota – разработка, внедрение и эксплуатация продуктов в области телекоммуникаций; Home Credit – проекты в сфере индустрии финансов. Сейчас – ведущий архитектор в компании Юнидата, где отвечает за развитие инструментальной платформы и продуктов на ее основе, начиная с технологического стека и заканчивая бизнес-потребностями клиентов в области руководства и управления данными.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Почти 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Data Governance на службе у государства

Доклад посвящен обсуждению опыта выполнения федерального проекта мониторинга социально-экономических показателей в сфере здравоохранения, коммуникаций, экономики и обеспечения правопорядка. Успешное выполнение проекта такого масштаба было бы невозможно без технологии Руководства данными (Data Governance). Использование инструментов данного класса позволило не на бумаге, а на деле решать подобные задачи на принципиально ином технологическом и методологическом уровне. Особое внимание в докладе уделено анализу качества организации и бесперебойности процесса сбора показателей, а также возможности отслеживания происхождения данных по каждому из показателей.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.

Александр Прохоров, Denodo

Около 30 лет опыта работы в ИТ-индустрии: начинал карьеру программистом в НИИВЦ МГУ, работал в крупных Российских системных интеграторах, а затем в представительствах компаний Veritas, Symantec, Informatica и Riverbed. Сейчас – директор по продажам Denodo в России.
Виртуальные данные – основа Цифровой экономики

Доступность всех данных в одном месте имеет решающее значение для Цифровой трансформации. Виртуализация данных — современная технология, позволяющая решить задачи, связанные с Управлением данными. Виртуализация позволяет обходиться без копирования данных в отдельное консолидированное хранилище и предоставляет пользователям и приложениям единое видение данных в режиме реального времени, при этом местоположение исходных данных не меняется. Такой подход не только сокращает затраты на хранение, но и обеспечивает доступ к любым типам источников данных, в том числе к тем, которые обычно несовместимы с физическими хранилищами данных.
Вернуться
к докладчикам
Николай Разин, Банк России
Окончил МФТИ, специализируется на создании интеллектуальных ИТ-систем, выявляющих скрытые закономерности в больших объемах данных: поиск первоисточников новостей событий, оказывающих существенное влияние на ход торгов и биржевых котировок; классификация больших объемов текстов, написанных в свободной форме; определение и распознавание паттернов, характеризующих поведение участников торгов. Сейчас – руководитель отдела функционального развития Департамента противодействия недобросовестным практикам, Банк России.
Практика машинного обучения в Банке России

Эффективная работа с данными, с одной стороны, предполагает максимальную гибкость при работе с необходимыми инструментами, а с другой, всегда ограничена требованиями протоколов безопасности, охраняющих чувствительные данные от произвольного распространения. Несмотря на столь противоречивые требования, точка, в которой достижим правильный баланс – существует и найденные в результате построения прототипов удачные модели означают не конец, а начало пути. Следующий вопрос – как внедрять модели машинного обучения в промышленную эксплуатацию и как их поддерживать? В докладе на практических примерах моделирования систем машинного обучения в Банке России рассмотрены все плюсы и минусы процесса промышленной эксплуатации соответствующих моделей.
Вернуться
к докладчикам
Роман Генис, «Ростелеком»
Окончил МГТУ им.Н.Э.Баумана. Более 15 лет в ИТ-индустрии: «Топс Бизнес Интегратор» – ИТ-консультант; «Форс-Центр разработки», «Банк Открытие» – архитектор проектов. Специализируется на архитектурах аналитических хранилищ данных и систем отчетности, инструментах интеграции и бизнес-аналитики, приложениях управления эффективностью бизнеса, финансовой и управленческой отчетности, а также на приложениях бюджетирования и финансового планирования. Сейчас – архитектор проектов департамента технологического развития управления данными в компании «Ростелеком».
Работа с мастер-данными и трансформациями в корпоративном хранилище

При загрузке данных до уровня витрин корпоративного хранилища обычно выполняется переход от справочников систем источников к принятым в компании эталонным справочникам (мастер-данным). Однако, такая загрузка данных обычно очень зависит от времени выполнения процессов подготовки и согласования с бизнесом маппингов справочников систем источников. Кроме того, при внесении любых изменений в маппинги требуются длительные масштабные перезагрузки и перепривязки данных. Доклад посвящен обсуждению проблем, возникающих при загрузке бизнес-данных в корпоративное хранилище и подходов, применяемых в корпорации «Ростелеком» для существенного сокращения времени загрузки. Особое внимание уделено архитектуре основного хранилища данных, анализу особенностей его взаимодействия с источниками, а также используемым инструментам управления мастер-данными.
Вернуться
к докладчикам
Александр Сидоров, HeadHunter
Около 20 лет в ИТ-индустрии. Работал менеджером проектов и руководителем сервисов в компании Яндекс. Более 15 лет занимается проектированием и разработкой систем с элементами искусственного интеллекта. Сейчас – руководитель направления анализа данных в компании HeadHunter, где отвечает за разработку и развитие поисковых и рекомендательных систем, метрик и автомодераций.
Как мгновенно найти работу и сотрудников

Многие работодатели и соискатели любят составлять резюме или вакансии из пары предложений, задавать запросы из одного слова и получать готовые контакты друг друга сразу же после того, как посетили сайт. Естественно, каждый из них делает все это по-своему, преследует свои конкретные цели, которые в кризисной ситуации меняются очень стремительно. Чтобы сделать все это возможным, сэкономив время соискателей и работодателей, требуется в реальном времени обработать все накопленные данные о их поведении на сайте, сформировать входной пул для системы машинного обучения, позволяющей предсказывать, кто кому подходит и сформировать итоговую индивидуальную витрину с вакансий и предложений. Доклад посвящен обсуждению технологий обработки потоков данных и архитектуры системы, позволяющей автоматически, без вмешательства кадровиков hh.ru готовить выборки, максимально адекватные запросам.
Вернуться
к докладчикам
Максим Кокурин, «Интер РАО»
Окончил факультет технической кибернетики Тульского государственного технического университета и НИУ ВШЭ по специальности финансовый контроль, бухучет и аудит. Около 30 лет опыта в сфере разработки и внедрения ERP, управления основными данными, проектирования и развертывания прикладной корпоративной архитектуры: Банк России – центр разработки (Региональная Автоматизированная Банковская Информационная Система; Программно-Технологический Комплекс Подготовки и Сбора Данных); Oracle – консалтинг в области разработки и внедрения приложений; SAP – логистика, Техническое Обслуживание и Ремонт Оборудования, прикладные разработки, интеграция, аналитика. Сейчас – руководитель департамента блока ИТ в «Интер РАО», где отвечает за организацию работы специализированной ИТ-компании, построение прикладной корпоративной архитектуры и создание системы управления основными данными.
Основное – данные: замена «коней» на переправе

Может ли импортозамещение не быть хайпом и зачем менять то, что работает? В чем ценность готовых решений и сложность их выбора, когда дешевле не значит лучше, а быстрее не значит эффективнее? Для ответа на эти вопросы в докладе обсуждается процесс эволюции системы управления основными данными от «наливания воды решетом» до стабильной, производительной и расширяемой модели управления. Особое внимание уделено анализу опыта проекта импортозамещения – создания, эксплуатации и развития системы управления основными данными группы «Интер РАО».
Вернуться
к докладчикам
Андрей Бадалов, НИИ «Восход»
Окончил Московский инженерно-физический институт (МИФИ), факультет «Кибернетика» по специальности «инженер-математик». Работал на предприятиях оборонной промышленности страны, консультантом «Информационного центра научного парка МГУ», занимал руководящие должности в «Российской корпорации средств связи» (РКСС), входящей в холдинг «Росэлектроника». Сейчаc – директор НИИ «Восход».
Наш опыт создания НСУД

В рамках федерального проекта «Цифровое государственное управление» национальной программы «Цифровая экономика» в 2019 году началась разработка Национальной системы управления данными (НСУД), призванной связать государственные информационные системы и обеспечить доступность, достоверность, полноту, непротиворечивость и защищенность используемых в них данных. По сути, НСУД — это совокупность правовых, организационных, методологических и информационно-технологических элементов, требуемых для объединения информационных систем государственных и муниципальных органов власти. НСУД должна ускорить автоматизацию процессов госуправления, повысить качество и скорость оборота данных, а также предоставить гражданам и юридическим лицам цифровые услуги на более высоком уровне. Доклад посвящен обсуждению особенностей разработки и апробации НСУД, ее ключевых информационно-технологических элементов: Единой информационной системы и витрин данным. Особое внимание уделено анализу опыта конкретных внедрений технологий НСУД в пилотных ведомствах.
Вернуться
к докладчикам
Антон Вахрушев, Сбербанк
Окончил Удмуртский государственный университет, экономист-математик. Около десяти лет опыта разработки прогнозных моделей для крупных банков. Призер соревнований по машинному обучению – «Kaggle Master». Сейчаc – руководитель направления, разработчик решения AutoML в Лаборатории искусственного интеллекта, Сбербанк.
AutoML: анализ данных и моделирование

Число специалистов по исследованию данных (Data Science) сегодня растет существенно медленнее, чем объем задач, решаемых методами машинного обучения. Однако, большинство таких задач – типовые. Доклад посвящен обсуждению способов автоматического решения львиной доли подобных задач при помощи инструмента AutoML, позволяющего освободить время дорогостоящих специалистов для более важных проблем: корректной постановки задачи, выбора наиболее адекватной целевой метрики, генерации экспертных признаков и т.п. Рассмотрены особенности построения blackbox-моделей с помощью библиотеки LightAutoML (LAMA) и интерпретируемых моделей средствами WhiteBoxAutoML, выбираемых в зависимости от конкретной задачи, требований регулятора и возможностей инфраструктуры. Кроме этого в докладе рассмотрены различные варианты инференса моделей с помощью сервисов SberCloud и автоматически сгенерированных SQL-запросов. Примечательно, что соответствующие библиотеки в скором времени будут доступны и сообществу OpenSource.
Вернуться
к докладчикам
Алексей Карапузов, Минцифры России
Окончил Московский института стали и сплавов (МИСиС) по специальностям «Инженер по автоматизации технологических процессов и производств» и «Информационные системы: внедрение сложных информационных систем на основе SAP и Oracle», а также обучался в Центре подготовки руководителей цифровой трансформации ВШГУ РАНХиГС. Работал на различных позициях в практике ИТ-консалтинга компании IBS, а затем в Фонде развития промышленности, где в должности руководителя направления отвечал за развитие государственной информационной системы. В 2018-2020 годах работал заместителем главы администрации города Нижнего Новгорода по информационным технологиям. Обладает богатым отраслевым опытом в сфере создания и развития информационных систем, реализации программ информатизации, применения механизмов государственно-частного партнерства, консультирования в области реорганизации бизнес-процессов, ИТ-аудита и разработки ИТ-стратегий. Сейчас – заместитель директора Департамента развития архитектуры и координации информатизации Минцифры России, где курирует разработку единой технической политики и ее внедрение в органах государственной власти, развитие методологии и архитектурных подходов, используемых при создании и развитии информационных систем, механизмов государственно-частного партнерства в государственных ИТ-проектах.
Единая техническая политика: принципы и требования к управлению данными в информационных системах органов власти

Единая техническая политика – совокупность принципов, правил и требований, наилучшим образом обеспечивающих достижение целей цифровой трансформации госуправления. Такая политика призвана синхронизировать и дополнить существующие требования к созданию информационных систем органов государственной власти, организации взаимодействия как с пользователями систем, так и взаимодействия систем между собой, включая управление данными. Доклад посвящен обсуждению принципов и требований к управлению данными в информационных системах органов государственной власти.
Вернуться
к докладчикам
Сергей Золотарев, Arenadata
Закончил МГТУ им. Н.Э. Баумана и Open University of London (MBA), работал в компаниях EMC, Jet, Avaya, Microsoft и Compaq. С 2013 по 2016 годы возглавлял представительство компании Pivotal в России, СНГ и Восточной Европе, где руководил проектами в области больших данных. В 2015 году инициировал проект разработки универсальной открытой платформы данных, результатом которого стал, в частности, продукт Arenadata Hadoop, сертифицированный Linux Foundation. В 2016 году основал компанию Arenadata, специализирующуюся на разработке открытой платформы сбора и хранения данных. Член экспертного совета национальной премии CDO Award. Сейчас – генеральный директор и управляющий партнер компании "Аренадата Софтвер".

Александр Бусыгин, ВТБ

Окончил Московский государственный университет путей сообщения по специальности
информационные системы и технологии. Более десяти лет опыта работы с большими
данными, в частности, в ЮниКредит Банке отвечал за внедрение и развитие хранилища
данных. Сейчас – начальник управления «Фабрика данных», ПАО ВТБ где руководит
внедрением и развитием аналитической платформы данных банка.
Платформы данных против унаследованных систем

Пандемия-2020 стала катализатором процессов внедрения цифровых решений, позволяющих предприятиям получить реальные конкурентные преимущества, а также привела к ревизии понятия прибыльности компаний и организаций во всех отраслях национальной экономики. Абсолютно все бизнесы приступили к цифровизации своих процессов и сразу захлебнулись в потоках входящих и генерируемых данных, неспособных проходить по имеющимся каналам сбора, обработки и анализа. Доклад посвящен обсуждению преимуществ применения бизнесом платформ данных, а также особенностей и проблем миграции на них с уже существующих систем. Особое внимание уделено анализу опыта проектов такой миграции и практического опыта работы с платформой данных.
Вернуться
к докладчикам
Анна Андрейченко, Центр диагностики и телемедицины, Департамент здравоохранения Москвы
Окончила НИЯУ МИФИ, Университет Неймегена и Университет Утрехта (Нидерланды), PhD, к.физ.-мат.н. Сейчас – старший научный сотрудник, руководитель отдела медицинской информатики, радиомики и радиогеномики Центра диагностики и телемедицины Департамента здравоохранения города Москвы, заместитель главы комитета по искусственному интеллекту в лучевой диагностике Московского регионального отделения Российского общества рентгенологов и радиологов.
Искусственный интеллект в медицинской визуализации

Доклад посвящен анализу текущих результатов и обсуждению опыта масштабного московского эксперимента по использованию компьютерного зрения для анализа медицинских изображений и его применения в системе здравоохранения Москвы (mosmed.ai). Особое внимание уделено особенностям работы с медицинскими данными, в частности, созданию эталонных наборов для решения задачи валидации в системах медицинского искусственного интеллекта.
Вернуться
к докладчикам
Александр Тарасов, DIS Group
Закончил Белгородский государственный технологический университет им. В.Г.Шухова. Около 20 лет в сфере управления ИТ-проектами, управления инновационной деятельностью и управления данными (в том числе Data Governance). Работал старшим директором по развитию бизнеса компании БДО Юникон, начальником департамента ИТ в МРСК Центр, а также руководил проектами SAP в ряде организаций. Автор серии вебинаров Data Governance, член Экспертного совета премии CDO Award. Сейчас – управляющий партнер DIS Group где руководит отделом консалтинга и направлением Master Data Management.
CDO & CEO: кто отвечает за цифровую трансформацию?

До сих пор не стихают споры об основных задачах директора по данным (CDO), а между тем, глобальные вопросы качества данных из категории хайпа перешли в категорию жизненно-важных проблем компаний. Недавние исследования свидетельствуют о том, что CDO становятся новыми партнерами бизнес-инициатив, и при этом в фокусе их внимания остаются задачи внедрения процесса «Know your data» и работа с «чувствительными» данными. Роль CDO в компании меняется – сегодня мы говорим не просто о директоре по данным, а о его архетипе: «Governance guru», «Оптимизатор процессов», «Цифровой драйвера» и «Бог аналитики». Однако, как показывает практика, для эффективной реализации цифровой бизнес-модели компании CDO не хватает реальных полномочий, но они есть у CEO, который зачастую не принимает активного участия в цифровизации. Актуальным становится организация бизнес-партнерства CDO и CEO. В докладе обсуждается, какой из архетипов CDO важен в каждой конкретной ситуации, как он сочетается с текущей бизнес-стратегией, какие из задач являются приоритетными для CDO на данный момент, и как необходимо выстраивать взаимодействие между CDO и CEO в компании.
Вернуться
к докладчикам
Роман Раевский, независимый эксперт
Окончил аспирантуру физико-технического факультета Уральского государственого технического университета по специальности «теоретическая физика». Около 30 лет опыта создания, разработки и внедрения ERP, CRM и аналитических систем на зарубежных и отечественных предприятиях и организациях. Принимал участие в проектах вывода на российский и европейский рынок сложных ИТ-продуктов класса ERP и CRM, а также аналитических платформ. Обладает глубокой экспертизой по системам бизнес-аналитики, включающим стек технологий искусственного интеллекта, автор ряда продуктов и алгоритмов.
Бизнес-аналитика: как монетизировать ваши данные?

Как известно, сами по себе инструменты бизнес-аналитики денег бизнесу не приносят, а их внедрение часто затратно и далеко не всегда успешно. Как сделать так, чтобы данные, поступающие на вход таких систем, приносили компании прибыль, а проект их внедрения быстро окупался? Какие результаты действительно нужно визуализировать, а что предоставить для дальнейшего анализа бизнес-пользователям? Доклад посвящен ответам на эти и другие вопросы. Особое внимание уделяется обзору реальных примеров, демонстрирующих преимущества систем бизнес-аналитики, изложению основных принципов окупаемости проектов внедрения аналитики в различных организациях, а также критериев их успешности.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.
Виртуальные данные в борьбе за спасение человеческих жизней

Доклад посвящен обсуждению возможностей технологии Виртуализации данных, позволяющей собрать и предоставить в одном месте большие массивы сырой информации без ее физического копирования. Данный подход помогает специалистам по всему миру в выполнении аналитических исследований и построении моделей Искусственного Интеллекта для борьбы с онкологическими заболеваниями и коронавирусной инфекцией.
Форум для:
директоров по развитию и цифровой трансформации, ИТ-директоров и директоров по данным (CDO);
менеджеров проектов, руководителей групп разработчиков;
руководителей функциональных подразделений и направлений;
топ-менеджеров и владельцев компаний;
архитекторов-аналитиков, исследователей данных;
ведущих специалистов.
Спикеры
Премиум-партнер
Генеральные партнеры
Партнеры
Партнер выставки
Образовательный партнер
Информационные партнеры
Close
Close
Для связи с организаторами
conf@osp.ru
Подать заявку на доклад
Пожалуйста, укажите свои контакты,
тему и аннотацию доклада
Публикации