Стратегии, архитектуры, платформы, практика

Форум «Управление данными 2021»

Форум, на одной площадке объединяющий всех, кто определяет стратегию работы с данными, тех, кто ее воплощает в жизнь и всех, кто управляет предприятием на основе объективных достоверных данных.

ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства
«Открытые системы».
«Для управления данными прежде всего важны методология, отношения с людьми и правильно выстроенные процессы на всех уровнях корпоративной иерархии. Наведение порядка в работе с данными важнее инвестиций в любые технологии, о которых также нельзя забывать.
  • Как обеспечить управление предприятием на основе достоверных объективных данных, а не субъективных экспертных мнений и эмоций?
  • Как из сырых сведений получить знания для построения новых бизнес-моделей монетизации данных?
  • Как вовлечь бизнес-подразделения в работу с данными?

Ответы на эти и многие другие вопросы – на нашем VI форуме по управлению данными».
Основные темы:
> Организация управления данными с обеспечением их мониторинга и аудита качества в реальном времени
> Формирование культуры работы с данными
> Консолидация, устранение дублирования и неопределенности в работе с данными
> Создание единой среды аналитики над данными из множества различных источников
> Организация самостоятельной работы бизнес-пользователей с достоверными данными
> Выбор внешней или разработка собственной платформы для работы с данными?
> Уроки отраслевого опыта управления данными
В программе:
Стратегии
  • Единая корпоративная модель данных: анализ происхождения, сбор, подготовка, верификация, обеспечение безопасного доступа и управление инцидентами
  • Построение процессов управления монетизацией данных
  • Управление метаданными и данными в материально-техническом обеспечении
  • Культура работы с данными: распределение ролей (CDO,CTO,CDTO, инженеры по данным, исследователи данных) и назначение ответственных за данные
  • Обеспечение качества данных
  • Демократизация данных: самообслуживание доступа и анализа
  • Промышленные стандарты управления данными и требования к их качеству
Архитектуры
  • Архитектурный ландшафт для корпоративной модели данных и управления метаданными
  • Среда интеграция разнообразных данных, шаблоны («озеро», хранилище, фабрика данных, MDM, data hub, витрины)
  • Шаблоны управления качеством данных
  • Архитектура поддержки цифровых двойников
  • Непрерывный мониторинг, аудит, контроль качества данных и управление инцидентами
  • Централизованные и распределенные масштабируемые инфраструктуры
  • Интеллектуальные технологии анализа данных (бизнес-аналитика, исследование данных, прогнозирование, визуализация и дополненная аналитика)
Платформы и инструменты
  • Средства построения витрин данных (SQL, NoSQL, NewSQL, In-Memory, графовые СУБД и др.)
  • Инструменты сбора, хранения, обработки данных, платформы бизнес-аналитики
  • Облачные, централизованные и распределенные программно-аппаратные комплексы (коммерческие и открытые платформы управления данными)
  • Инструменты интеграции данных (Informatica, Pentaho, Syncsort Trillium, Talend, Teradata, Unidata и др.)
  • Управление мастер-данными (Informatica, SAS,TIBCO, Talend, Unidata и др.)
  • Управление качеством данных (Ataccama, Informatica, SAS,Talend, Unidata, и др.)
  • Работа с метаданными, Data Governance (Ataccama, Collibra, Informatica, IBM, Pentaho, Talend, Tableau, Teradata, SAP, SAS, Tibco, Unidata, и др.)
Практика управления данными
  • Секреты управления метаданными, материально-технического обеспечения и работы с НСИ (каталоги, реестры, справочники)
  • Учет информационных ресурсов и аналитических моделей
  • Практика инвентаризации данных, обработка документов, построение онтологий
  • Ошибки и организационные проблемы при построении системы управления данными
  • Отраслевой опыт: промышленность, ТЭК, финансы, ретейл, транспорт, телеком, государственное управление, медицина, 10+ отраслей
Вернуться
к докладчикам
Алена Дробышевская, Яндекс.Облако
Окончила факультет ВМиК МГУ им. М.В. Ломоносова. Более 20 лет опыта работы в ИТ-индустрии – специализация: хранение и анализ данных, искусственный интеллект и машинное обучение, облачные технологии. Работала в компании KPMG, где возглавляла практику «Данные и аналитика», оценивала и внедряла решения с применением методов машинного обучения в интересах крупных российских предприятий. В компании Microsoft отвечала за продвижение решений для хранения и анализа данных, а также решений класса «Artificial Intelligence», в том числе с применением облачных технологий. До прихода в Microsoft работала в Oracle, где отвечала за продвижение на российский рынок хранилищ данных, платформы управления данными и инструментов бизнес-анализа. Имеет опыт открытия в России дочерней компании венгерского производителя ПО для банков в области управления рисками и автоматизации процессов кредитования, управления залогами. Сейчас, в компании Яндекс.Облако руководит направлением развития платформы машинного обучения, принимает участие в проектах, связанных с анализом данных и построением моделей на основе технологий искусственного интеллекта.
Данные для глубинного обучения

Мир становится цифровым – все больше компаний и организаций во всем мире меняют свои бизнес-модели, стремясь максимально полно использовать все доступные им данные для учета текущих и прогнозирования будущих потребностей своих клиентов и заказчиков. Растет важность машинного обучения при анализе данных и построении прогнозных моделей. Доклад посвящен анализу особенностей каждого этапа обработки данных и инструментов, применяемых в течение жизненного цикла систем искусственного интеллекта. Особое внимание уделено обзору сервисов, используемых для сбора, хранения, обработки и первичного анализа данных для построения моделей глубинного обучения и визуализации результатов. На конкретных примерах раскрывается процесс решения прикладных задач с использованием сервисов Yandex DataSphere, DataLens, Data Proc и др.
Вернуться
к докладчикам
Александр Скоробогатов, Micro Focus
Окончил Тверской Государственный Технический Университет. Более 20 лет опыта работы в
ИТ-индустрии. Карьеру начался с разработки систем мониторинга и нагрузочного
тестирования, имеет богатый опыт проектирования, администрирования хранилищ данных и
развития вычислительной инфраструктуры ЦОД, принимал участие в развертывании
конфигураций на базе решений SAP (включая SAP HANA), возглавлял проекты миграции
ИТ-сервисов. Сейчас – архитектор решений Vertica в России и СНГ.
Как построить унифицированное аналитическое хранилище

С ростом объемов хранения и обработки данных все чаще возникает вопрос – где же
находится в настоящий момент актуальная версия данных? Где лежат данные, готовые к
отображению? Это значит, что обработку данных необходимо осуществлять максимально
близко к местам их размещения, избегая создания лишних копий в разных информационных
системах. Доклад посвящен обсуждению требований, предъявляемых к современным
хранилищам данных: гибридное развертывание, наличие аналитических функций,
возможность масштабируемости и высокая производительность на петабайтных объемах.
Особое внимание уделено разбору примеров по оптимизации инвестиций в корпоративные
инфраструктуры обработки данных, построенные на базе решений с открытым кодом. Кроме
этого рассматриваются различные варианты построения конвейера для глубокой обработки
данных с помощью СУБД Vertica.
Вернуться
к докладчикам
Роман Гоц, Atos
Около 20 лет опыта работы в области информационных технологий: занимался развитием бизнеса в крупных технологических компаниях, управлял федеральными и макрорегиональными проектами, возглавлял управление федеральной розницей и расширением региональной партнерской сети. Сейчас – директор по развитию бизнеса компании Atos в России, где руководит департаментом больших данных и безопасности, предоставляющим решения на базе оборудования Atos для предприятий различных отраслей экономики.
Данные – это про прибыль. Решения для работы с Big Data

Данные сегодня имеют критически важное значение, позволяя компаниям создавать инновационные решения, получать конкурентные преимущества и принимать более взвешенные решения. Однако, управление данными создает для компаний большие трудности – цифровая трансформация невозможна без надежной архитектуры работы с данными и соответствующих аппаратно-программных решений. Доклад посвящен обсуждению комплексных систем от компании Atos, специально предназначенных для работы с большими данными и средствами видеоаналитики.
Вернуться
к докладчикам
Сергей Раков, «Ростелеком»
Окончил Национальный исследовательский университет «Московский институт электронной техники». Около 10 лет в ИТ-индустрии: технический специалист по поддержке сайтов, руководитель проектов по разработке продуктов. Сейчас – руководитель направления B2G (business-to-government) в компании «Ростелеком», где отвечает за платформу видеонаблюдения на выборах и ЕГЭ.
Яндекс.Метрика в проектах федерального масштаба

Обеспечение эффективного функционирования любого сайта невозможно без накопления и анализа статистики его эксплуатации, например с целью изучения поведения действий пользователей на порталах по видеонаблюдению. Как оптимально собирать статистические данные на проектах федерального уровня не потратив огромных средств и не сорвав сроки? Нужен ли свой собственный сервис или можно взять готовый? Доклад посвящен обсуждению опыта применения сервиса Яндекс.Метрика, используемого для изучения поведения пользователей на портале, сбора сведений о используемых ими устройствах, браузерах, разрешениях и т.д. с учетом нестандартных задач, решаемых федеральными порталами, за которые отвечает «Ростелеком». Особое внимание уделено анализу конкретных примеров передачи и обработки произвольных наборов данных, а также их использованию при анализе в совокупности со стандартными данными, собираемыми сервисом Яндекс.Метрика для формирования витрин данных, группировки и сегментации. Все это иллюстрировано в докладе на примере разбора конкретных сценариев использования параметров пользователей и результатов их визитов на портал: длительность просмотров трансляций по объектам, сбор статуса трансляций в плеере пользователя, работа с поиском и пр.
Вернуться
к докладчикам
Александр Хайтин, «Mechanica AI»
Более 20 лет в ИТ-индустрии, специализируется на консалтинге, разработке и внедрении передовых для своего времени технологий. Работал в «КОРУС консалтинг», где занимался анализом и изменением бизнес-процессов заказчиков, а также внедрением различных информационных систем. В Yandex Data Factory отвечал за разработку и внедрение решений на основе технологий машинного обучения. Сейчас – генеральный директор и со-основатель компании Mechanica AI, специализирующейся на проектах искусственного интеллекта в промышленности: металлургия, химическая индустрия, нефтехимия.

Дмитрий Карбасов, Евразийская Группа

Более десяти лет работает в сфере развития и трансформации бизнеса в компаниях ИТ-интеграторах и вендорах. Имеет богатый опыт практического применения технологий искусственного интеллекта, а также в управлении разработкой и развитии инновационных ИТ-продуктов и сервисов. Сейчас, в международной группы компаний Евразийская Группа (Eurasian Resources Group) руководит управлением промышленного искусственного интеллекта где за полтора года «с нуля» создал подразделение, ведущее проекты по созданию и внедрению технологий ИИ в производственные процессы добычи, переработки и производства алюминия, а также сплавов феррохрома. Кроме этого отвечает за решение задач оптимизации планирования и закупок.
Инвентаризация данных

Для реализации проектов с использованием искусственного интеллекта необходима обучающая выборка на основе данных, используемых для управления производством и можно ожидать, что достаточно просто взять архив таких данных и начать работать. Однако, это не так. При оперативном управлении применяется комбинация оцифрованных и архивных данных (вес, температура, химический состав и т. п.), а также сведения, непосредственно доступные оператору (цвет и объем дыма, шумы от оборудования и т.д.). Кроме того, даже цифровые данные не всегда хранятся после отображения в интерфейсе, а если и хранятся, то могут содержаться в анонимных таблицах без описаний и вне привязки к процессу и оборудованию. Ситуацию усугубляет еще и то, что чаще других теряются наиболее ценные данные: диагностированные проблемы, принятые меры и пр. Если предприятие собирается использовать машинное обучение для для улучшения своих производственных процессов, то стоит начинать именно с инвентаризации данных – простой, нудной работы, но позволяющей понять, какие именно данные используются, какая часть из них накапливается и в каком виде, а какая полностью теряется сразу после использования. В докладе на конкретных примерах показано, как относительно просто провести инвентаризацию данных, позволяющую подготовить почву для проектов по реализации предсказательных и рекомендательных моделей.
Вернуться
к докладчикам
Александр Гурко, НП «ГЛОНАСС»
Более 20 лет работает в сфере телекоммуникаций, на различных руководящих должностях курируя проекты ГЛОНАСС: президент некоммерческого партнерства «Содействие развитию и использованию навигационных технологий» (НП «ГЛОНАСС»); соруководитель рабочей группы по реализации и разработке дорожной карты «Автонет 2.0» Национальной технологической инициативы; член Совета при президенте РФ по модернизации экономики и инновационному развитию России, также Комиссии при президенте РФ по вопросам развития авиации общего назначения и навигационно-информационных технологий на основе системы «ГЛОНАСС»; руководитель рабочей группы по вопросам развития беспилотных летательных аппаратов, авиационных систем и авиационных видов спорта. Руководил проектами по созданию государственной системы «ЭРА-ГЛОНАСС», Единой системы управления наземным городским транспортом Московской агломерации, систем мониторинга транспорта для МВД России, МЧС России, «Почты России» и ОАО «Транснефть».

Игорь Кравченко, «Рексофт»

Почти 30 лет опыта работы индустрии разработки ПО – создание масштабных информационных систем для госкорпораций и государственных информационных систем федеральных уровня. Эксперт в области создания платформ обработки данных и телематических систем промышленного назначения. Руководил, в частности, проектами создания и внедрения системы сбора и обработки телематических данных для ведущего автопроизводителя, а также федеральной системы миграционного учета. Сейчас в компании «Рексофт» курирует вопросы, связанные с инновационными рынками и технологиями.
Платформа «Автодата»: управление автомобильными данными

Национальная навигационно-телематическая платформа «Автодата» призвана обеспечить формирование массива статистических и аналитических данных о колесных транспортных средствах, дорожной инфраструктуре, а также сопутствующей информации в транспортной сфере, связанной с логистикой людей и вещей. Платформа должна позволить сформировать массив данных по всему жизненному циклу автомобиля с момента его выпуска в обращение до утилизации: данные о функционировании бортовых систем, поведение водителя, телеметрия взаимодействия с автотранспортной инфраструктурой, а также создать цифровую среду для поддержки движения транспорта с различными степенями автоматизации по дорогам общего пользования. Доклад посвящен обсуждению задач, которые должна решать «Автодата», источников данных для нее и логики их сбора, особенностей их верификации, обогащения и обработки, а также перспектив применения платформы автомобильных. Особое внимание уделено обзору архитектуры платформы.
Вернуться
к докладчикам
Федор Краснов, Naumen
Окончил Национальный исследовательский ядерный университет «МИФИ», факультет экспериментальной и теоретической физики. С 2005 года отвечал за цифровую трансформацию в телеком-операторе AKADO Group в должности вице-президента по развитию бизнеса. В 2011 году был назначен директором по цифровизации Фонда «Сколково», в 2014 году перешел на аналогичную позицию в Интер РАО ЕЭС. С 2015 года работал в «Газпром Нефть НТЦ», где занимался задачами аналитической сейсмики и обработки естественного языка. Имеет международные сертификаты по машинному обучению и анализу больших данных, автор более 50 научных статей. Получил степень MBA в London Metropolitan University. Сейчас – директор департамента информационных систем управления в компании Naumen, где отвечает за управление инновационной деятельностью компании и развитие продуктового направления на базе технологий искусственного интеллекта и анализа больших данных.

Кира Есаулова, Naumen

Окончила Государственный университет управления Институт психологии и социологии управления. На различных руководящих должностях работала в Университете управления, Институте проблем глобализации, участвовала в масштабных проектах Минобрнауки России и МИД России. Автор ряда научных публикаций, эксперт Фонда развития интернет инициатив, входит в рабочие группы Минобрнауки России, МИД России и Правительства Российской Федерации. Сейчас – руководитель направления интеллектуального анализа и поиска данных компании Naumen.
Интеллектуальный анализ документов

Объем неструктурированных данных в компаниях сегодня растет в геометрической прогрессии и составляет уже тера- и петабайты различной технологической, проектной и нормативно-методической документации, публикаций и научной литературы. При отсутствии консолидированного хранилища и инструментов поиска компании сталкиваются с проблемой использования всех этих накопленных данных, на поиск и обработку которых сотрудники часто тратят слишком много времени. Системы корпоративного поиска (Enterprise Search), построенные на базе технологий искусственного интеллекта и средств обработки естественного языка потенциально способны значительно ускорить процесс поиска информации, максимально релевантной запросам. В докладе на конкретных примерах обсуждаются возможности применения систем интеллектуального поиска и анализа документов для автоматизации работы различных групп пользователей.
Вернуться
к докладчикам
Олег Сурков, «Росатом»
Окончил «Санкт-Петербургский государственный университет экономики и финансов» по специализации финансовый менеджмент. Более десяти лет опыт в сфере управления данными – успешно реализовал ряд крупных проектов в сфере автоматизации ключевых бизнес-процессов, а также цифровых проектов по созданию продуктов и платформ управления данными. Имеет опыт внедрения, адаптации, модификации международных фреймворков, а также опыт создания новых фреймворков для управления данными. Сейчас – руководитель управления корпоративных данных, где отвечает за создание системы управления с помощью данных в периметре ГК «Росатом».

Дмитрий Рудаков, «Росатом»

Окончил «Братский индустриальный институт» по специальности сети и системы энергетического факультета. Более двадцати лет опыта работы в области информационных технологий. Богатый опыт внедрения корпоративных систем и построения централизованных систем НСИ. Эксперт межотраслевых и федеральных рабочих групп. Сейчас возглавляет службу корпоративной системы НСИ ГК «Росатом».
НСИ – связующее звено: Data Governance и Data Management

Комплекс мероприятий по созданию системы управления с помощью данных включает широкий спектр процессов: управление стратегией компании, управление ИТ-стратегией, управление проектной деятельностью, управление разработкой и сервисной поддержкой ИТ-активов. На практике нередки случаи совмещения понятий Data Governance (DG), представляющего, по сути, законодательную «ветвь власти», и Data Management (DM) – исполнительной «ветви власти». В связи с этим часто возникает вопрос, что именно из себя представляет «Управление данными», как оно ими управляет и управляет ли вообще? В ГК «Росатом» используются сложные технологические процессы, используемые при проектировании и сооружении крупномасштабных энергетических установок, в машиностроении, добычи полезных ископаемых и генерации электроэнергии. Применение корпоративных системы НСИ позволяет унифицировать обмен данными в отраслевых бизнес-процессах, повысить их эффективность и подготовить основу для внедрения подходов и методологий DG и DM. В докладе раскрываются ключевые различия между понятиями DG и DM, а также обсуждается роль и важность НСИ, как главного средства связи между уровнем контроля и прикладным уровнем, позволяющего наполнять метаданные данными.
Вернуться
к докладчикам
Сергей Степанов, «Газпром нефть»
Окончил Тюменский государственный университет по специальности «Информационные технологии в геологии и геоинформатике». Почти 15 лет опыта работы в ИТ-индустрии: архитектор баз данных, разработчик и аналитик. Сейчас – руководитель направления по ИТ, сектор качества данных и ИТ-сопровождения Центра управления добычи «Газпромнефть Ямал», где отвечает за настройку механизмов поставки, использования данных в рамках процессов операционной деятельности: «Интегрированная модель актива» и «Интегрированный план актива».

Лев Зуев, «Газпром нефть»

Окончил Санкт-Петербургский государственный университет экономики и финансов (ФИНЭК) по специализации «Финансы и Кредит». Более десяти лет опыта руководства ИТ-проектами и программами управления экономическими процессами и данными. Сейчас – ИТ-бизнес партнер программ Блока разведки и добычи «Газпром нефть» (БРД), где отвечает за программу «Управление данными БРД».


Управление данными в интегрированном планировании

Интегрированное планирование объединяет всю цепочку создания стоимости от переработки до сбыта с целью создания сквозного плана, позволяющего минимизировать риски несоответствия между спросом и предложением – компания должна производить ровно столько нефтепродуктов определенной номенклатуры, сколько может перевезти и реализовать для удовлетворения потребностей рынка. Такое планирование дает возможность оперативно и эффективно управлять жизненным циклом продукта по всей цепочке добавленной стоимости с учетом существующих ограничений и имеющихся возможностей. Доклад посвящен обсуждению бизнес-задач, проблем, преимуществ и результатов реализации проекта интеграционного планирования: оптимизационная модель (функционирование, вход-выход); изменения по итогам реализации проекта – сложности и пути их преодоления. Особое внимание уделено анализу процессов работы с данными – что пришлось поменять в работе с данными, основные проблемы и решения, изменение отношения к данным в бизнесе.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта создания сложных автоматизированных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, работающих сегодня на крупнейших отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий».

Константин Кондратьев, «ТриниДата»

Специалист по Machine Learning и Natural Language Processing. Участвовал в работе над проектами с применением технологий машинного обучения для компаний Вымпелком и Яндекс. В компании «ТриниДата» руководит направлением применения машинного обучения в связке с онтологиями.
Обработка корпоративной информации на естественном языке

Люди обычно предпочитают работать с информацией на естественном языке, а не со структурированными данными – текстовые документы составляют значительную часть данных и значительный объем знаний предприятия. Вместе с тем, до сих пор наиболее распространенный способ работы с такими документами – полнотекстовый поиск, не учитывающий смысла обрабатываемых текстов. Большинство существующих сегодня средств интерпретации естественного языка опираются на использование нейросетей, работа которых часто не поддается анализу, результаты иногда необъяснимы и неожиданны. Альтернатива – использование правил разбора текста, применимых, однако, только для решения относительно локальных задач. Сделать следующий шаг в обработке информации на естественном языке позволяет совместное использование онтологий, как средства представления концептуальных и языковых моделей, и методов машинного обучения. В фокусе доклада – методы и инструменты работы со смыслом, заложенным в текстовой информации: преобразование запросов аналитиков на естественном языке в запросы к структурированным данным; интеграция методов обработки информации на естественном языке со средствами консолидации корпоративных данных; извлечение смысловых конструкций из текстов на естественном языке с целью индексации и автоматизированного аннотирования.
Вернуться
к докладчикам
Эдуард Олевинский, Правовое бюро «Олевинский, Буюкян и партнеры»
Окончил юридический факультет Высшей школы приватизации и предпринимательства, а также и факультет психологии МГУ им. М.В.Ломоносова. Более 30 лет опыта работы на рынке юридических услуг, основатель и руководитель компании «Правовое бюро «Олевинский, Буюкян и партнеры», специализирующейся в области сопровождения процедур банкротства.

Александр Колчин, Правовое бюро «Олевинский, Буюкян и партнеры»

Окончил факультет «Системы управления летательными аппаратами» Московского авиационного института. Около 30 лет опыта работы в сфере общественных коммуникаций и корпоративного управления: The PBN Company, R&R Advertising, «Мобил Телеком», «Русские ВЕБ-ресурсы». Сейчас − партнер компании «Правовое бюро «Олевинский, Буюкян и партнеры».
Что нужно юристам в эпоху цифровой трансформации?

Работа юристов, как правило, оплачивается исходя из почасовой ставки – время стоит серьезных денег, которые платит либо клиент, ожидаемо не желающий нести расходы на техническую, с его точки зрения, работу, либо юридическая компания, что снижает ее billable rate (эффективность труда). Как одна из наиболее консервативных областей – юриспруденция переживает эпоху цифровой трансформации? Что нужно для того, чтобы клиенты не платили за подготовку рутинных документов и поиск данных в различных источниках, а юристы прежде всего занимались защитой интересов своих клиентов, а не тратили время на непроизводственную деятельность? Как организована интеграция с открытыми данными и что сегодня происходит в сфере информатизации деятельности юристов? Доклад посвящен ответам на эти вопросы, формулировке требований к «идеальной» системе для юриспруденции и обзору имеющихся на рынке решений (LegalTech) информатизации работы юристов. Особое внимание уделено анализу опыта эксплуатации интегрированной системы, созданной в правовом бюро «Олевинский, Буюкян и партнеры», а также обсуждению перспектив ее развития и еще не решенных задач в области цифровизации юриспруденции.
Вернуться
к докладчикам
Иван Вахмянин, Visiology
Окончил МИФИ по специальности «Информационное обеспечение экономических процессов», аспирантуру Российской академии государственной службы при президенте РФ по специальности «Информационные технологии в управлении» и Московскую школу управления «Сколково». Эксперт в сфере разработки ПО для анализа и визуализации данных. Сейчас – генеральный директор компании Visiology, где руководит созданием и развитием аналитической платформы бизнес-аналитики.
ViXtract – открытый инструмент загрузки и преобразования данных


Вернуться
к докладчикам
Наталья Мусорина, «Ростелеком»
Окончила МИФИ по специальности «Прикладная ядерная физика». Около 15 лет опыта работы с данными: Сбербанк России, «Газпромбанк», банк «Открытие». Сейчас – директор департамента управления данными в компании «Ростелеком», где отвечает, в частности, за бизнес-системный анализ данных, внедрение операционных процессов управления данными, разработку сервисов и инструментов управления данными.

Александр Юрасов, «Ростелеком»

Окончил Московский государственный индустриальный университет по специальности прикладная информатика в экономике и управлении. Более 10 лет опыта в сфере построения отчетности и управления данными: в «Вымпелком» занимался развитием хранилищ данных и отчетностью бизнес-аналитики для стран СНГ; в Альфа-банке руководил проектами по развитию отчетности по Российским стандартам бухгалтерского учета и Международным стандартам финансовой отчетности. Сейчас – руководитель направления по развитию информационных сервисов департамента управления данными в компании «Ростелеком».
DataGovernance своими силами

Для того, чтобы данные стали ценным активом компании, необходимо, чтобы все ее сотрудники понимали, какими данными они владеют, где их можно получить и как использовать. Как показывают исследования, в крупных компаниях при решении задач работы с данными, от 40 до 80% времени уходит на их поиск. Однако, на практике ситуация еще хуже – данные могут быть безнадежно устаревшими, избыточными, многократно дублированными, либо о их существовании известно лишь узкому кругу пользователей. Данными нужно уметь эффективно управлять и на сегодняшний день на рынке имеются соответствующие решения класса DataGovernace, однако и они часто не позволяют решать конкретные задачи предприятия. Доклад посвящен обсуждению опыта разработки концепции DataGovenance в компании «Ростелеком». Особое внимание уделено анализу причин отказа от внедрения коробочного решения и инициации создания собственного инструмента документирования данных на основе стека Open Source.
Вернуться
к докладчикам
Роман Стрекаловский, «Юнидата»
Около 20 лет опыта работы в качестве архитектора и руководителя проектов – прошел путь от тестировщика, создающего мидлеты для проверки JVM на мобильных телефонах первых поколений и руководителя проектов, до основателя компании, предлагающей рынку инновационные ИТ-решения: Motorola; T-Mobile,Yota – разработка, внедрение и эксплуатация продуктов в области телекоммуникаций; Home Credit – проекты в сфере индустрии финансов. Сейчас – ведущий архитектор в компании Юнидата, где отвечает за развитие инструментальной платформы и продуктов на ее основе, начиная с технологического стека и заканчивая бизнес-потребностями клиентов в области руководства и управления данными.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Почти 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Data Governance на службе у государства

Доклад посвящен обсуждению опыта выполнения федерального проекта мониторинга социально-экономических показателей в сфере здравоохранения, коммуникаций, экономики и обеспечения правопорядка. Успешное выполнение проекта такого масштаба было бы невозможно без технологии Руководства данными (Data Governance). Использование инструментов данного класса позволило не на бумаге, а на деле решать подобные задачи на принципиально ином технологическом и методологическом уровне. Особое внимание в докладе уделено анализу качества организации и бесперебойности процесса сбора показателей, а также возможности отслеживания происхождения данных по каждому из показателей.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.

Александр Прохоров, Denodo

Около 30 лет опыта работы в ИТ-индустрии: начинал карьеру программистом в НИИВЦ МГУ, работал в крупных Российских системных интеграторах, а затем в представительствах компаний Veritas, Symantec, Informatica и Riverbed. Сейчас – директор по продажам Denodo в России.
Виртуальные данные – основа Цифровой экономики

Доступность всех данных в одном месте имеет решающее значение для Цифровой трансформации. Виртуализация данных — современная технология, позволяющая решить задачи, связанные с Управлением данными. Виртуализация позволяет обходиться без копирования данных в отдельное консолидированное хранилище и предоставляет пользователям и приложениям единое видение данных в режиме реального времени, при этом местоположение исходных данных не меняется. Такой подход не только сокращает затраты на хранение, но и обеспечивает доступ к любым типам источников данных, в том числе к тем, которые обычно несовместимы с физическими хранилищами данных.
Вернуться
к докладчикам
Николай Разин, Банк России
Окончил МФТИ, специализируется на создании интеллектуальных ИТ-систем, выявляющих скрытые закономерности в больших объемах данных: поиск первоисточников новостей событий, оказывающих существенное влияние на ход торгов и биржевых котировок; классификация больших объемов текстов, написанных в свободной форме; определение и распознавание паттернов, характеризующих поведение участников торгов. Сейчас – руководитель отдела функционального развития Департамента противодействия недобросовестным практикам, Банк России.
Практика машинного обучения в Банке России

Эффективная работа с данными, с одной стороны, предполагает максимальную гибкость при работе с необходимыми инструментами, а с другой, всегда ограничена требованиями протоколов безопасности, охраняющих чувствительные данные от произвольного распространения. Несмотря на столь противоречивые требования, точка, в которой достижим правильный баланс – существует и найденные в результате построения прототипов удачные модели означают не конец, а начало пути. Следующий вопрос – как внедрять модели машинного обучения в промышленную эксплуатацию и как их поддерживать? В докладе на практических примерах моделирования систем машинного обучения в Банке России рассмотрены все плюсы и минусы процесса промышленной эксплуатации соответствующих моделей.
Вернуться
к докладчикам
Роман Генис, «Ростелеком»
Окончил МГТУ им.Н.Э.Баумана. Более 15 лет в ИТ-индустрии: «Топс Бизнес Интегратор» – ИТ-консультант; «Форс-Центр разработки», «Банк Открытие» – архитектор проектов. Специализируется на архитектурах аналитических хранилищ данных и систем отчетности, инструментах интеграции и бизнес-аналитики, приложениях управления эффективностью бизнеса, финансовой и управленческой отчетности, а также на приложениях бюджетирования и финансового планирования. Сейчас – архитектор проектов департамента технологического развития управления данными в компании «Ростелеком».
Работа с мастер-данными и трансформациями в корпоративном хранилище

При загрузке данных до уровня витрин корпоративного хранилища обычно выполняется переход от справочников систем источников к принятым в компании эталонным справочникам (мастер-данным). Однако, такая загрузка данных обычно очень зависит от времени выполнения процессов подготовки и согласования с бизнесом маппингов справочников систем источников. Кроме того, при внесении любых изменений в маппинги требуются длительные масштабные перезагрузки и перепривязки данных. Доклад посвящен обсуждению проблем, возникающих при загрузке бизнес-данных в корпоративное хранилище и подходов, применяемых в корпорации «Ростелеком» для существенного сокращения времени загрузки. Особое внимание уделено архитектуре основного хранилища данных, анализу особенностей его взаимодействия с источниками, а также используемым инструментам управления мастер-данными.
Вернуться
к докладчикам
Александр Сидоров, HeadHunter
Около 20 лет в ИТ-индустрии. Работал менеджером проектов и руководителем сервисов в компании Яндекс. Более 15 лет занимается проектированием и разработкой систем с элементами искусственного интеллекта. Сейчас – руководитель направления анализа данных в компании HeadHunter, где отвечает за разработку и развитие поисковых и рекомендательных систем, метрик и автомодераций.
Как мгновенно найти работу и сотрудников

Многие работодатели и соискатели любят составлять резюме или вакансии из пары предложений, задавать запросы из одного слова и получать готовые контакты друг друга сразу же после того, как посетили сайт. Естественно, каждый из них делает все это по-своему, преследует свои конкретные цели, которые в кризисной ситуации меняются очень стремительно. Чтобы сделать все это возможным, сэкономив время соискателей и работодателей, требуется в реальном времени обработать все накопленные данные о их поведении на сайте, сформировать входной пул для системы машинного обучения, позволяющей предсказывать, кто кому подходит и сформировать итоговую индивидуальную витрину с вакансий и предложений. Доклад посвящен обсуждению технологий обработки потоков данных и архитектуры системы, позволяющей автоматически, без вмешательства кадровиков hh.ru готовить выборки, максимально адекватные запросам.
Вернуться
к докладчикам
Максим Кокурин, «Интер РАО»
Окончил факультет технической кибернетики Тульского государственного технического университета и НИУ ВШЭ по специальности финансовый контроль, бухучет и аудит. Около 30 лет опыта в сфере разработки и внедрения ERP, управления основными данными, проектирования и развертывания прикладной корпоративной архитектуры: Банк России – центр разработки (Региональная Автоматизированная Банковская Информационная Система; Программно-Технологический Комплекс Подготовки и Сбора Данных); Oracle – консалтинг в области разработки и внедрения приложений; SAP – логистика, Техническое Обслуживание и Ремонт Оборудования, прикладные разработки, интеграция, аналитика. Сейчас – руководитель департамента блока ИТ в «Интер РАО», где отвечает за организацию работы специализированной ИТ-компании, построение прикладной корпоративной архитектуры и создание системы управления основными данными.
Основное – данные: замена «коней» на переправе

Может ли импортозамещение не быть хайпом и зачем менять то, что работает? В чем ценность готовых решений и сложность их выбора, когда дешевле не значит лучше, а быстрее не значит эффективнее? Для ответа на эти вопросы в докладе обсуждается процесс эволюции системы управления основными данными от «наливания воды решетом» до стабильной, производительной и расширяемой модели управления. Особое внимание уделено анализу опыта проекта импортозамещения – создания, эксплуатации и развития системы управления основными данными группы «Интер РАО».
Вернуться
к докладчикам
Андрей Бадалов, НИИ «Восход»
Окончил Московский инженерно-физический институт (МИФИ), факультет «Кибернетика» по специальности «инженер-математик». Работал на предприятиях оборонной промышленности страны, консультантом «Информационного центра научного парка МГУ», занимал руководящие должности в «Российской корпорации средств связи» (РКСС), входящей в холдинг «Росэлектроника». Сейчаc – директор НИИ «Восход».
Наш опыт создания НСУД

В рамках федерального проекта «Цифровое государственное управление» национальной программы «Цифровая экономика» в 2019 году началась разработка Национальной системы управления данными (НСУД), призванной связать государственные информационные системы и обеспечить доступность, достоверность, полноту, непротиворечивость и защищенность используемых в них данных. По сути, НСУД — это совокупность правовых, организационных, методологических и информационно-технологических элементов, требуемых для объединения информационных систем государственных и муниципальных органов власти. НСУД должна ускорить автоматизацию процессов госуправления, повысить качество и скорость оборота данных, а также предоставить гражданам и юридическим лицам цифровые услуги на более высоком уровне. Доклад посвящен обсуждению особенностей разработки и апробации НСУД, ее ключевых информационно-технологических элементов: Единой информационной системы и витрин данным. Особое внимание уделено анализу опыта конкретных внедрений технологий НСУД в пилотных ведомствах.
Вернуться
к докладчикам
Антон Вахрушев, Сбербанк
Окончил Удмуртский государственный университет, экономист-математик. Около десяти лет опыта разработки прогнозных моделей для крупных банков. Призер соревнований по машинному обучению – «Kaggle Master». Сейчаc – руководитель направления, разработчик решения AutoML в Лаборатории искусственного интеллекта, Сбербанк.
AutoML: анализ данных и моделирование

Число специалистов по исследованию данных (Data Science) сегодня растет существенно медленнее, чем объем задач, решаемых методами машинного обучения. Однако, большинство таких задач – типовые. Доклад посвящен обсуждению способов автоматического решения львиной доли подобных задач при помощи инструмента AutoML, позволяющего освободить время дорогостоящих специалистов для более важных проблем: корректной постановки задачи, выбора наиболее адекватной целевой метрики, генерации экспертных признаков и т.п. Рассмотрены особенности построения blackbox-моделей с помощью библиотеки LightAutoML (LAMA) и интерпретируемых моделей средствами WhiteBoxAutoML, выбираемых в зависимости от конкретной задачи, требований регулятора и возможностей инфраструктуры. Кроме этого в докладе рассмотрены различные варианты инференса моделей с помощью сервисов SberCloud и автоматически сгенерированных SQL-запросов. Примечательно, что соответствующие библиотеки в скором времени будут доступны и сообществу OpenSource.
Вернуться
к докладчикам
Алексей Карапузов, Минцифры России
Окончил Московский института стали и сплавов (МИСиС) по специальностям «Инженер по автоматизации технологических процессов и производств» и «Информационные системы: внедрение сложных информационных систем на основе SAP и Oracle», а также обучался в Центре подготовки руководителей цифровой трансформации ВШГУ РАНХиГС. Работал на различных позициях в практике ИТ-консалтинга компании IBS, а затем в Фонде развития промышленности, где в должности руководителя направления отвечал за развитие государственной информационной системы. В 2018-2020 годах работал заместителем главы администрации города Нижнего Новгорода по информационным технологиям. Обладает богатым отраслевым опытом в сфере создания и развития информационных систем, реализации программ информатизации, применения механизмов государственно-частного партнерства, консультирования в области реорганизации бизнес-процессов, ИТ-аудита и разработки ИТ-стратегий. Сейчас – заместитель директора Департамента развития архитектуры и координации информатизации Минцифры России, где курирует разработку единой технической политики и ее внедрение в органах государственной власти, развитие методологии и архитектурных подходов, используемых при создании и развитии информационных систем, механизмов государственно-частного партнерства в государственных ИТ-проектах.
Единая техническая политика: принципы и требования к управлению данными в информационных системах органов власти

Единая техническая политика – совокупность принципов, правил и требований, наилучшим образом обеспечивающих достижение целей цифровой трансформации госуправления. Такая политика призвана синхронизировать и дополнить существующие требования к созданию информационных систем органов государственной власти, организации взаимодействия как с пользователями систем, так и взаимодействия систем между собой, включая управление данными. Доклад посвящен обсуждению принципов и требований к управлению данными в информационных системах органов государственной власти.
Вернуться
к докладчикам
Сергей Золотарев, Arenadata
Закончил МГТУ им. Н.Э. Баумана и Open University of London (MBA), работал в компаниях EMC, Jet, Avaya, Microsoft и Compaq. С 2013 по 2016 годы возглавлял представительство компании Pivotal в России, СНГ и Восточной Европе, где руководил проектами в области больших данных. В 2015 году инициировал проект разработки универсальной открытой платформы данных, результатом которого стал, в частности, продукт Arenadata Hadoop, сертифицированный Linux Foundation. В 2016 году основал компанию Arenadata, специализирующуюся на разработке открытой платформы сбора и хранения данных. Член экспертного совета национальной премии CDO Award. Сейчас – генеральный директор и управляющий партнер компании "Аренадата Софтвер".

Александр Бусыгин, ВТБ

Окончил Московский государственный университет путей сообщения по специальности
информационные системы и технологии. Более десяти лет опыта работы с большими
данными, в частности, в ЮниКредит Банке отвечал за внедрение и развитие хранилища
данных. Сейчас – начальник управления «Фабрика данных», ПАО ВТБ где руководит
внедрением и развитием аналитической платформы данных банка.
Платформы данных против унаследованных систем

Пандемия-2020 стала катализатором процессов внедрения цифровых решений, позволяющих предприятиям получить реальные конкурентные преимущества, а также привела к ревизии понятия прибыльности компаний и организаций во всех отраслях национальной экономики. Абсолютно все бизнесы приступили к цифровизации своих процессов и сразу захлебнулись в потоках входящих и генерируемых данных, неспособных проходить по имеющимся каналам сбора, обработки и анализа. Доклад посвящен обсуждению преимуществ применения бизнесом платформ данных, а также особенностей и проблем миграции на них с уже существующих систем. Особое внимание уделено анализу опыта проектов такой миграции и практического опыта работы с платформой данных.
Вернуться
к докладчикам
Анна Андрейченко, Центр диагностики и телемедицины, Департамент здравоохранения Москвы
Окончила НИЯУ МИФИ, Университет Неймегена и Университет Утрехта (Нидерланды), PhD, к.физ.-мат.н. Сейчас – старший научный сотрудник, руководитель отдела медицинской информатики, радиомики и радиогеномики Центра диагностики и телемедицины Департамента здравоохранения города Москвы, заместитель главы комитета по искусственному интеллекту в лучевой диагностике Московского регионального отделения Российского общества рентгенологов и радиологов.
Искусственный интеллект в медицинской визуализации

Доклад посвящен анализу текущих результатов и обсуждению опыта масштабного московского эксперимента по использованию компьютерного зрения для анализа медицинских изображений и его применения в системе здравоохранения Москвы (mosmed.ai). Особое внимание уделено особенностям работы с медицинскими данными, в частности, созданию эталонных наборов для решения задачи валидации в системах медицинского искусственного интеллекта.
Вернуться
к докладчикам
Александр Тарасов, DIS Group
Закончил Белгородский государственный технологический университет им. В.Г.Шухова. Около 20 лет в сфере управления ИТ-проектами, управления инновационной деятельностью и управления данными (в том числе Data Governance). Работал старшим директором по развитию бизнеса компании БДО Юникон, начальником департамента ИТ в МРСК Центр, а также руководил проектами SAP в ряде организаций. Автор серии вебинаров Data Governance, член Экспертного совета премии CDO Award. Сейчас – управляющий партнер DIS Group где руководит отделом консалтинга и направлением Master Data Management.
CDO & CEO: кто отвечает за цифровую трансформацию?

До сих пор не стихают споры об основных задачах директора по данным (CDO), а между тем, глобальные вопросы качества данных из категории хайпа перешли в категорию жизненно-важных проблем компаний. Недавние исследования свидетельствуют о том, что CDO становятся новыми партнерами бизнес-инициатив, и при этом в фокусе их внимания остаются задачи внедрения процесса «Know your data» и работа с «чувствительными» данными. Роль CDO в компании меняется – сегодня мы говорим не просто о директоре по данным, а о его архетипе: «Governance guru», «Оптимизатор процессов», «Цифровой драйвера» и «Бог аналитики». Однако, как показывает практика, для эффективной реализации цифровой бизнес-модели компании CDO не хватает реальных полномочий, но они есть у CEO, который зачастую не принимает активного участия в цифровизации. Актуальным становится организация бизнес-партнерства CDO и CEO. В докладе обсуждается, какой из архетипов CDO важен в каждой конкретной ситуации, как он сочетается с текущей бизнес-стратегией, какие из задач являются приоритетными для CDO на данный момент, и как необходимо выстраивать взаимодействие между CDO и CEO в компании.
Вернуться
к докладчикам
Роман Раевский, независимый эксперт
Окончил аспирантуру физико-технического факультета Уральского государственого технического университета по специальности «теоретическая физика». Около 30 лет опыта создания, разработки и внедрения ERP, CRM и аналитических систем на зарубежных и отечественных предприятиях и организациях. Принимал участие в проектах вывода на российский и европейский рынок сложных ИТ-продуктов класса ERP и CRM, а также аналитических платформ. Обладает глубокой экспертизой по системам бизнес-аналитики, включающим стек технологий искусственного интеллекта, автор ряда продуктов и алгоритмов.
Бизнес-аналитика: как монетизировать ваши данные?

Как известно, сами по себе инструменты бизнес-аналитики денег бизнесу не приносят, а их внедрение часто затратно и далеко не всегда успешно. Как сделать так, чтобы данные, поступающие на вход таких систем, приносили компании прибыль, а проект их внедрения быстро окупался? Какие результаты действительно нужно визуализировать, а что предоставить для дальнейшего анализа бизнес-пользователям? Доклад посвящен ответам на эти и другие вопросы. Особое внимание уделяется обзору реальных примеров, демонстрирующих преимущества систем бизнес-аналитики, изложению основных принципов окупаемости проектов внедрения аналитики в различных организациях, а также критериев их успешности.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.
Виртуальные данные в борьбе за спасение человеческих жизней

Доклад посвящен обсуждению возможностей технологии Виртуализации данных, позволяющей собрать и предоставить в одном месте большие массивы сырой информации без ее физического копирования. Данный подход помогает специалистам по всему миру в выполнении аналитических исследований и построении моделей Искусственного Интеллекта для борьбы с онкологическими заболеваниями и коронавирусной инфекцией.
Форум для:
Генеральных директоров, директоров
по развитию и цифровой трансформации
Директоров по данным (CDO), ИТ-директоров
Руководителей функциональных
подразделений и направлений

Управляющих директоров, менеджеров проектов
Архитекторов-аналитиков, специалистов
по данным

Руководителей подразделений и ведущих специалистов
Спикеры
Корпоративная платформа управления данными
«Газпром нефть»


РЖД


АО «ГЛОНАСС»

«Роскосмос»

«Росатом»

«Утконос»
Вернуться
к докладчикам
Ataccama
Управление данными в условиях непрерывных изменений

Современные компании и организации с каждым годом вынуждены обрабатывать все больше различных данных – кроме сбора и анализа данных для них все более актуальным становится вопрос: как помочь пользователям не потеряться в информационном потоке, обеспечить прозрачность и эффективный поиск доступных сведений? Для решения этой задачи необходимо выстраивание процессов Data Governance, включая управление метаданными и качеством данных.

Мастер-класс:
  • Что такое управление корпоративными данными (Data Governance) и какую ценность оно несет для бизнеса?
  • Как организовать процессы Data Governance – роли, задачи, первые шаги?
  • Основные проблемы на пути управления корпоративными данными – или «как не превратиться в проект для ИТ»?
Вернуться
к докладчикам
Петр Подымов, «Леруа Мерлен»
Окончил МГТУ им. Н.Э. Баумана. Около 20 лет профильного опыта в банковской сфере и розничной торговле, включая стратегический консалтинг, руководство бизнес-трансформацией и цифровизацией в роли CDTO, а также разработку архитектуры организационных изменений с внедрением agile-моделей в «Леруа Мерлен» и Сбере. Участник инициатив Data Governance в крупнейших компаниях, эксперт по структурным инвестициям в цифровизацию, аккредитованный тренер и автор курсов в международной академии AlphaZetta, со-организатор Ассоциации профессионалов управления данными. Сейчас – архитектор предприятия в команде стратегии, «Леруа Мерлен».
Управление данными в условиях непрерывных изменений

Динамика потребительских предпочтений, глобальные кризисы, подобные санитарному, а также последствия решений регуляторов оказывают сильное воздействие на бизнес компаний розничной торговли. Главным фактором не только устойчивого роста, но и выживания в условиях неопределенности становится для таких компаний их готовность к оперативному реагированию на изменения, возможность принятия объективных решений на основе анализа данных, предложение продуктов и услуг, предвосхищающих индивидуальные запросы потребителей. Доклад посвящен обсуждению особенностей трансформации бизнеса в контексте непрерывных изменений среды его существования. Особое внимание уделено изложению принципов управления данными в компаниях розничной торговли, их применению в новых условиях и трансформации взглядов всех участников экосистемы ретейла, а также специфике взаимодействия внутри международной группы компаний.
Вернуться
к докладчикам
Ринат Абдурахманов, «Билайн»
Окончил РГУ Нефти и Газа им. И.М. Губкина, факультет «Автоматика и вычислительная техника». Около десяти лет в ИТ-индустрии – процессы управления данными, создание систем хранения и обработки данных: «Сибур» – старший эксперт по управлению данными; Accenture – консультант по хранилищам данных на проектах для «Росбанка» и «Альфа-банка». Сейчас – руководитель департамента Data Governance «Билайн».
Data Mesh в телекоме

Любая телекоммуникационная компания собирает и обрабатывает огромное количество данных, стараясь извлечь из них максимальную ценность, используя, в частности «озера данных». Вместе с тем, в классическом подходе к работе с Data Lake имеются принципиальные ограничения при централизованном развитии хранилища – чем больше интегрированных систем и данных, тем больше требуется ресурсов на их поддержку и развитие, а значит, возникает больше кросс-зависимостей, что означает лавинообразный рост ответственности для определенных групп сотрудников компании. В итоге, например команда работы с Data Lake, становится бутылочным горлышком процесса доставки данных от источников к потребителям. Решение – распределенная структура управления данными (Data Mesh), позволяющая разделить ответственность: владение данными (генерация, описание, контроль качества, публикация) сосредоточено в бизнес-функциях, а CDO выступает в роли провайдера инструментария хранения, обработки данных, а также методологии управления ими. Доклад посвящен обсуждению опыта развертывания и эксплуатации Data Mesh в компании «Билайн». Особое внимание уделено процессам Data Governance, обеспечивающим взаимодействие между узлами распределенной структуры: внедрение каталога данных, определение ландшафта данных, роли владельца данных, общие политики для всех узлов.
Вернуться
к докладчикам
Александр Соловьев, Росакредитация
Окончил факультет прикладной математики и кибернетики Национального исследовательского Томского государственного университета по специальности «Математические методы в экономике», кандидат физ.-мат. наук. Почти15 лет опыта работы в ИТ-индустрии: Томский государственный университет – заведующий учебной лабораторией информационных технологий и автоматизации учебного процесса; страховая медицинская организация «МАКС-М» – начальник отдела материального и информационно-технического обеспечения, заместитель директора филиала; Департамент экономики Администрации Томской области – председатель комитета сводной работы и мониторинга целевых показателей, заместитель начальника. Сейчас – заместитель руководителя Федеральной службы по аккредитации.
Сервис доступа к государственным данным

Сегодня все больше покупок совершается в Сети – объем Интернет-торговли вырос в 2020 году на 60%, причем основной рост приходится на товарные группы подлежащие обязательной сертификации и декларированию: бытовая техника, одежда и обувь. При приобретении товаров в офлайн покупатель может потребовать сертификат или декларацию у продавца, а для предоставления такой возможности при онлайн-покупках Федеральная служба по аккредитации совместно с бизнесом реализует в сервис доступа к документам, подтверждающим безопасность товара, сведениям о производителе и месте изготовления из информационной базы Росаккрдитациии. Доклад посвящен обсуждению архитектуры сервиса обмена данными между Федеральной службой по аккредитации и бизнесом электронной коммерции. Интернет-магазины смогут получать актуальные данные о документах, подтверждающих соответствие и публиковать ссылки на них в карточке товаров. Особое внимание в докладе уделено возможностям борьбы с контрафактом и способам повышения доверия потребителей к товарам добросовестных продавцов.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта работы в сфере создания систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, эксплуатируемых сегодня на крупных отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий». Сейчас – директор компании «ТриниДата», специализирующейся на реализации проектов создания ИТ-архитектур, интеграции и анализа данных, управления корпоративными знаниями.

Артем Ходяев, «Газпром недра»

Почти 20 лет опыта работы в сфере проектирования и разработки прикладных информационных систем разведки и добычи углеводородов. Автор ряда концептуальных моделей данных для хранения и обработки информации в секторе Upstream. Один из участников создания информационной системы автоматизации деятельности Центра хранения сейсмической информации «НК «Роснефть». Непосредственный участник разработки Концепции единого информационного пространства обращения геолого-геофизической и промысловой информации ПАО «Газпром». Сейчас – зам. начальника Службы информационно-управляющих систем и связи "Газпром недра".
Дата-центрическая архитектура как основа быстрой доставки аналитических данных

Любой корпоративный ИТ-ландшафт образован множеством приложений, имеющих собственные базы данных, содержащие информационные объекты, отражающие бизнес-объекты, события и фазы бизнес-процессов. Как правило, многие объекты бизнес-процессов «отражаются» одновременно в нескольких базах, например, единица оборудования промышленного предприятия описана с разных точек зрения в системах бухучета, управления ремонтами и обслуживанием, управления производством и др.
Для того, чтобы приложения автоматизации различных бизнес-процессов работали вместе, их необходимо интегрировать с помощью решений классов MDM и ESB, однако такая интеграция поглощает ресурсы и редко полностью удовлетворяет потребности бизнеса. Дата-центрическая архитектура позволяет избавиться от всех интеграционных проблем, сделав данные, а не бизнес-приложения центральным элементом корпоративной ИТ-архитектуры. Доклад посвящен обсуждению особенностей реализации такой архитектуры на практике, позволяющей избежать неверных управленческих решений при выборе путей развития корпоративной ИТ-архитектуры, открыть путь к быстрому выполнению запросов бизнеса на создание новых приложений, аналитических представлений и отчетов. Особое внимание уделено анализу инструментов, позволяющих обеспечить непротиворечивость, актуальность и точность корпоративных данных, использовать одни и те же данные для решения разных бизнес-задач.
Вернуться
к докладчикам
Ирина Голощапова, Head of Data Science,«Лента»
Окончила МГУ им. М.В. Ломоносова, к.э.н. Более 10 лет опыта работы в сфере анализа данных и продвинутой аналитики в различных прикладных областях: экономическая политика, финансовый сектор и количественная оценка рисков, ретейл, социально-значимые проекты: X5 Retail Group – количественная оценка рисков и оптимизация бизнес-процессов; Центр макроэкономического анализа и краткосрочного прогнозирования – макроэкономические исследования, статистический анализ и моделирование. Лидер команды Data Science в исследовательской группе Манчестерского Университета, а также лидер по исследованиям в проекте Big Data Indicators оценки высокочастотных индикаторов экономических ожиданий населения на основе больших данных. Сейчас – руководитель отдела Data Science компании «Лента».
В поисках сокровищ в данных: эффективное управление data science

Цифровая трансформация обещает своим последователям несметные горы сокровищ, скрытых в сырых корпоративных данных. Однако ожидания не совпадают с реальностью – около 95% подобных проектов неэффективны, либо не доходят до завершения. На практике большинство проектов — попытка найти сокровища в темной комнате, которая далеко не всегда заканчивается успехом. Гораздо чаще комната оказывается бесконечной или пустой, а иногда сокровища, которые были очень близки, – фальшивыми. Доклад посвящен особенностям организации управления экспертизой Data Science так, чтобы в проектах цифровой трансформации идти только к тем сокровищам, которые стоят внимания и принесут деньги – в комнате с ярко включенным светом.
Вернуться
к докладчикам
Станислав Лазуков, «Ростелеком»
Окончил кафедру экономической кибернетики Пермского государственного университета. Почти 20 лет опыта работы в ИТ-индустрии: построение аналитических решений в банковском секторе (риски, обязательная и управленческая отчетность и др.) на базе платформы бизнес-аналитики Prognoz Platform, руководство направлением систем банковской бизнес-аналитики, контроль реализации ключевых проектов в интересах Департамента финансов и территориальных подразделений Сбербанка (создание аналитических витрин центра хранения данных, формирование управленческой отчетности MIS, реализация системы ключевых показателей эффективности и пр.). Сейчас – директор направления в ПАО «Ростелеком», где отвечает за вывод на коммерческий рынок и продвижение инструментов для работы с большими данными в составе корпоративной платформы управления данными «Ростелеком Бизнес».
Как разглядеть «айсберг» в озере данных

Термин «data-driven» – принятие стратегических решений на основе данных, прочно закрепился в лексиконе менеджеров, однако за простым, на первый взгляд, понятием прячется сложный вопрос выбора соответствующей системы: приобрести готовое решение от вендора, воспользоваться бесплатными наработками сообщества OpenSource или инвестировать в развитие собственной команды, создающей продукты управления данными под запросы компании? Доклад посвящен обзору российского рынка решений управления данными и обсуждению проблем, с которыми сталкиваются разработчики на пути самостоятельного овладения открытыми технологиями. Особое внимание уделено вопросам построения озера данных на базе открытых технологий, особенностям подхода к оценке внутренней стоимости проекта создания и внедрения платформы, а также разбору типичных ошибок и проблем оценки «глазами» менеджера сложной технической задачи, которая потенциально может оказаться «айсбергом» в озере данных.
Вернуться
к докладчикам
Сергей Иванов, «УралХим»
Окончил Финансовую Академию при правительстве РФ. Около 25 лет в ИТ-индустрии – управление корпоративной архитектурой предприятия и данными: ПАО Сбербанк, «Газпром нефть». Сейчас – руководитель Департамента корпоративных данных АО «ОХК «УралХим».
Как данные управляют компанией?

Мир быстро меняется – в условиях перехода экономической деятельности в онлайн и повышения роли проактивности экономические циклы сжимаются. Компании начинают прогнозировать ситуацию на рынке и поведение клиента, в надежде обеспечить принятие правильных управленческих решений и оперативно скорректировать свою стратегию. Данные и модели становятся единственным способом конвертации реальных участников, вещей и событий в цифровой мир. Считается, что чем больше у компании данных высокого качества, тем больше у нее шансов достигнуть успеха. Как следствие, многие компании сегодня собирают новые наборы данных, используют аналитику и технологии искусственного интеллекта, расширив использование как внутренних, так и внешних источников данных в реальном времени. Однако, далеко не в каждой компании сотрудники действительно используют имеющиеся данные в своей повседневной работе. Доклад посвящен обсуждению опыта создания и эксплуатации системы управления компанией на основе данных. Особое внимание уделено обсуждению архитектуры сбора и доставки в реальном времени данных, требуемых каждому сотруднику.
Вернуться
к докладчикам
Светлана Бова, ВТБ
Окончила Московский государственный педагогический университет им. В. И. Ленина. Более 20 лет опыта работы в финансовой индустрии, в сфере управления данными и аналитики: НПФ «Промрегионсвязь» – менеджер по продажам; «Газпромбанк» – сотрудник управления сопровождения операций юридических лиц, финансовый аналитик инвестиционного блока; ЗАО «Неофлекс Консалтинг» — заместитель директора департамента аналитики по направлению «Хранилища данных и аналитические приложения»; «Р-Стайл Софтлаб» – заместитель директора департамента аналитических систем; ПАО «Росбанк» – руководитель департамента аналитических систем. Сейчас — CDO, Управляющий директор – вице-президент, Департамент ИТ-архитектуры, «Банк ВТБ» (ПАО).
Карты потоков данных – примеры использования

Ландшафт любой финансовой организации федерального масштаба включает множество различных информационных систем, оперирующих огромными массивами данных: сотни тысяч таблиц, миллионы полей, разнообразные структуры, форматы и источники метаданных. Ориентироваться в таком пространстве сложно и чтобы найти нужный элемент данных требуется тратить массу времени на изучение документации и опросы сотрудников. Для работы в подобном ландшафте необходим специальный инструментарий по визуализации – DataLineage (карты потоков данных), позволяющий сотрудникам искать требуемую достоверную, непротиворечивую и актуальную информацию. Доклад посвящен обсуждению примеров использования в банке инструментария DataLineage, позволившего сократить затраты на анализ и разработку за счет облегчения поиска данных. Особое внимание уделено обсуждению особенностей формирования карт потоков данных в автоматическом режиме, что позволяет минимизировать затраты на рефакторинг ETL, снизить риски при регресс-тестировании и обеспечить прозрачность визуализации пути прохождения данных от момента их появления до конечного потребителя по цепочке ИТ-систем.
Вернуться
к докладчикам
Андрей Андриченко, «ЭсДиАй Солюшен»
Окончил Московский технологический институт (МТИ), к.т.н. в области САПР технологических процессов. Более 30 лет опыта работы в ИТ-индустрии: руководитель отдела САПР в НИИ авиационных технологий (НИАТ); руководитель технологического направления в компании «Аскон». Три поколения созданных за время работы САПР, используются сегодня на сотнях промышленных предприятий России. Руководил проектом по созданию отечественной MDM-системы («Сколково»). Сейчас – советник генерального директора АО «ЭсДиАй Солюшен», отвечая за продвижение MDM в крупных промышленных холдингах и корпорациях.
MDM: основа цифровой трансформации бизнеса и госуправления

Обозначение одного и того же информационного объекта в различных прикладных системах может отличаться, что приводит к дублированию мастер-данных и необходимости синхронизировать различные базы данных. Требуются справочники корпоративного уровня, созданные с учетом отраслевых, государственных и международных стандартов. Доклад посвящен проблеме создания и ведения таких справочников. Особое внимание уделено вопросам создания единой унифицированной терминологии для однозначного описания классов и идентификации характеристик продукции, для обеспечения возможности свободного обмена сведениями между различными информационными средами, работающими с корпоративными мастер-данными в различных контекстах.
Вернуться
к докладчикам
Александр Погосьян, Сбер
Окончил Военно-воздушную инженерную академию им. Н.Е.Жуковского. Более 20 лет опыта работы в ИТ-индустрии: начальник отдела аналитики в Департаменте собственных продуктов компании «Астерос»; менеджер проектов в компании Deloitte; операционный директор в нишевой консалтинговой компании. За время работы прошел путь от разработчика автоматизированных систем до руководителя, создав несколько подразделений «с нуля» и обеспечив их становление, а также выполнив множество проектов, в частности: внедрение MDM, создание объединенных центров обслуживания, внедрение ERP-систем в различных индустриях. Сейчас – исполнительный директор по направлению «Качество данных» в ПАО «Сбербанк».
Стратегия и инструменты управления качеством данных

Обеспечения качества данных в крупных организациях стало сегодня критически важным для обеспечения успеха любой инициативы бизнеса, связанной с данными. На это влияет наличие регуляторных требований, активное развитие систем искусственного интеллекта и инструментов принятия решений, объемы внутренней и внешней отчетности. Стратегия обеспечения качества неразрывно связана с другими процессами управления данными. Также существенную роль играют инструменты обеспечения качества данных, их взаимосвязи с другими инструментами платформы управления данными. В условиях, когда объемы данных растут, а экспертиза по данным распределена по организации, возникает потребность в реализации инструментов самообслуживания и обеспечении соответствующих процессов. В докладе рассмотрены вопросы разработки и реализации стратегии управления качеством данных, предложены пути их решения и разобраны практические кейсы.
Вернуться
к докладчикам
Михаил Петров, Счетная палата РФ
Более 20 лет в ИТ-индустрии: компания «Финансовые и бухгалтерские консультанты» (ФБК/PKF), PricewaterhouseCoopers, i2, Оргкомитет «Сочи 2014», где прошел путь от руководителя Управления ERP до директора Технологического Операционного Центра, отвечая за поддержку всех технологических сервисов для десятков тысяч пользователей на всех объектах Игр. В Минкомсвязи РФ руководил программой подготовки к Чемпионату Мира по футболу 2018 года. Принимал участие в создании Проектного офиса Национальной Технологической Инициативы (НТИ). На позиции директора по управлению проектами цифровой трансформации ВТБ работал над организацией корпоративного акселератора и организацией инвестиций в финтех-проекты. Сейчас в Счетной палате Российской Федерации организует аналитическую работу с данными в области государственного аудита и контроля. Преподает в ведущих ВУЗах страны, соавтор учебников и монографии.
Опыт проектирования и развертывания системы управления данными


Вернуться
к докладчикам
Сергей Шестаков, ГК «Luxms»
Окончил «Санкт-Петербургский политехнический университет Петра Великого», к.т.н. Около 30 лет опыта в ИТ-индустрии – системное администрирование и управление данными: «Промстройбанк»; «ВТБ». Руководил масштабными международными проектами по разработке прикладного программного обеспечения. Соавтор архитектуры ряда подсистем российской аналитической платформы Luxms BI; курировал проекты внедрения этой платформы в ПАО «Ростелеком», ОАО «Мегафон», Комитете по здравоохранению Правительстве СПб, НМИЦ им. В.А. Алмазова. Сейчас – генеральный директор ГК «Luxms».

Дмитрий Дорофеев, ГК «Luxms»

Окончил «Санкт-Петербургский политехнический университета Петра Великого». Более 25 лет опыта работы в ИТ-индустрии. Разработал систему анализа финансовых институтов на основе балансовых отчетов и нормативов Центрального банка, которая в дальнейшем использовалась для принятия решений по межбанковскому кредитованию. Автор кода аналитического ПО для платформы Luxms BI. Имеет опыт развертывания аналитических решений на многоузловых конфигурациях, включая кластеры ClickHouse, Greenplum и PostgreSQL. Сейчас – главный конструктор ГК «Luxms».
Высокоскоростной инструмент подготовки аналитических витрин

Задача аналитики на больших данных, поступающих из множества внешних и внутренних источников, обладающих различными структурами и схемами индексации, усложняется необходимостью визуализировать их в реальном времени для тысяч одновременно работающих пользователей. В результате, как показывает практика, для многих крупных инсталляциях систем бизнес-аналитики наблюдается резкое снижение быстродействия. Одним из решений может быть многоуровневая оптимизация: во-первых, оптимизация ETL-алгоритмов и создание горячего слоя хранения; во-вторых, оптимизация исполнения бизнес-логики за счет дата-центрической архитектуры сервера визуализации. Доклад посвящен обсуждению архитектуры и возможностей продукта Luxms Data Boring, позволяющего на реальных задачах в разы ускорить подготовку аналитических витрин по сравнению с традиционным способом – формирования витрин на стороне корпоративного хранилища и озера данных. Особое внимание уделено возможностям интеграции продукта с системами управления данными, в частности, использующими технологии искусственного интеллекта, на примере Informatica Data Catalog и библиотек AI/ML на примере Greenplum MADlib.
Вернуться
к докладчикам
Руслан Трачук, «Юнидата»
Окончил СПбПУ по специальности «Информационная безопасность». Более 20 лет опыта работы в сфере разработки ПО, например в компании «Рексофт» специализировался на создании продуктов по заказам западных клиентов рынка телекоммуникаций. Сейчас – технический директор в компании «Юнидата», где отвечает за разработка платформы управления данными и продуктов на ее основе.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Более 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Система очистки озера данных


Вернуться
к докладчикам
Юрий Буйлов, СберАвто
Окончил Военную академию воздушно-космической обороны им. Маршала Советского Союза Г.К. Жукова по специальности "Вычислительные машины комплексы системы и сети". Около 20 лет в ИТ-индустрии: разработка и интеграция архитектур распределенных высоконагруженных систем, руководство многофункциональными командами разработчиков, внедрение практик DevSecOps и подхода Data Driven: CarPrice – руководитель отдела разработки, «Яндекс» – руководитель группы монетизации, Auto.ru – руководитель команды разработчиков, imhonet.ru – бэкенд-разработчик. Сейчас – технический директор в компании СберАвто, где отвечает за стратегию технического развития, процессы и применение практик управления разработкой и данными.

Константин Ключников, СберАвто

Окончил МГУ им. М.В. Ломоносова, факультет Вычислительной Математики и Кибернетики, затем работал в Институте проблем управления им.В.А. Трапезникова, к.физ.-мат. наук по специальности "Системный анализ, управление и обработка информации". Начал карьеру в компании МегаФон, где прошел путь от маркетинг-аналитика до руководителя направления больших данных, затем работал в компании Вымпелком – руководитель клиентской аналитики. Затем продолжил карьеру в компании CarPrice, где запустил процессы построения моделей предиктивной аналитики, позволившей на 10% увеличить прибыль. Сейчас – CDO в компании СберАвто, где отвечает за стратегию формирования данных в централизованном источнике, включая корректность данных, их целостность и доступность. Ведет проекты Data Quality, Master Data Management и Meta Data Management. Отвечает за интеграцию данных с системами дочерних компаний банка, включая скоринговые модели и обогащение данных (Data Enrichment).
Референтные модели управления данными

Модели обучения призваны оптимизировать ресурсы компании для улучшения ее финансовых показателей, обнаружить важные инсайты, влияющие на бизнес и использовать их как дополнительные возможности для его роста. Референтными моделями могут быть нейросети, деревья решений и модели имитационного моделирования, позволяющие сфокусироваться на наиболее важных аспектах бизнеса и обеспечить его поступательный рост. Доклад посвящен обсуждению процессов и технологий управления жизненным циклом данных и обеспечения их качества. Особое внимание уделено анализу особенностей внедрения принципов демократизации и итеративности данных для обеспечения бизнесу непрерывных поставок продуктовой ценности.
Вернуться
к докладчикам
Варвара Макарьина, «Балтика»
Окончила РГУ нефти и газа (НИУ) имени И.М. Губкина. Работала в ЦОД Linxdatacenter, затем в ООО «Пивоваренная компания «Балтика». Восемь лет опыта в сфере бизнес-аналитики и формирования отчетности. Сейчас – ведущий специалист по цифровым решениям, отвечая за реализацию стратегии Data Governance, участие в развитии направлений Data Catalog & Data Quality, обучение сотрудников принципам управления данными и их практическому применению.

Патрисия Кошман, «Балтика»

Окончила факультет географии РГПУ им. А.И.Герцена. Около десяти лет опыта работы в ИТ-индустрии. Сейчас – менеджер по развитию аналитических систем в ООО «Пивоваренная компания «Балтика», где работает над реализацией стратегии Data Governance, участвует в развитии инструментов управления Data Catalog & Data Lineage, а также курирует направление Data Lifecycle.
Каталог данных: предпосылки создания и реализация

Объем данных, ежедневно создаваемый и обрабатываемый современными предприятиями непрерывно растет, что делает необходимым выстраивание и реализацию стратегии Data Governance, позволяющую повышать доверие пользователей к данным, разрабатывать понятные ролевые модели распределения ответственности для получения уверенности в актуальности и полноте используемых данных. Для реализации такой стратегии в службе Supply Chain компании «Балтика» был создан Каталог данных (Data Catalog) – система, связывающая источники данных, их компоненты и метаданные; учитывающая специфику архитектуры информационной системы компании, а также позволяющая масштабировать решение на все функции компании и страны ее присутствия в составе группы Carlsberg Group. Доклад посвящен описанию Data Catalog, обсуждению возможностей, в том числе с точки зрения конечного бизнес-пользователя. Особое внимание уделяется преимуществам работы с использованием Data Catalog и особенностям реализации принципов управления данными: описание (наличие бизнес-глоссария) и владение (ролевая модель ответственности).
Вернуться
к докладчикам
Иван Вахмянин, Visiology
Окончил МИФИ по специальности «Информационное обеспечение экономических процессов», аспирантуру Российской академии государственной службы при президенте РФ по специальности «Информационные технологии в управлении» и Московскую школу управления «Сколково». Почти 15 лет в опыта работы ИТ-индустрии – эксперт в сфере разработки ПО для анализа и визуализации данных. Сейчас – генеральный директор компании Visiology, где руководит созданием и развитием аналитической платформы бизнес-аналитики.
Роль методологии при внедрении управления на основе данных

Управление на основе данных (data-driven) – это уже не роскошь, а необходимость для организаций любого масштаба и отраслевой принадлежности. Однако, внедрение такого управления – сложный проект, затрагивающий все аспекты деятельности организации: управленческие практики, бизнес-процессы, технологии, оргструктуру и, конечно, культуру. Любой инициатор подобного проекта должен найти ответы на следующие вопросы: Как убедить основных стейкхолдеров поддержать проект по внедрению управления на основе данных? Как сделать первый шаг и быстро получить осязаемый результат? Как эффективно спланировать проект и минимизировать риски? Конечно, всегда можно попробовать реализовать такой проект "наудачу", а можно опереться на опыт уже выполненных проектов бизнес-аналитики, использовать имеющиеся практики и рекомендации, которые помогут сэкономить и время, и нервы. Доклад посвящен обсуждению методологии внедрения проектов бизнес-аналитики – неотъемлемой части управления на основе данных, разработанной на основе синтеза практического опыта, признанных мировых практик и методик. Основу методологии составляют: рекомендации, шаблоны документов, калькулятор экономической эффективности, карта технологий, примеры управленческих витрин и многое другое.
Вернуться
к докладчикам
«Объединённая двигателестроительная корпорация»
Секреты управления мастер-данными

Проблема создания и ведения справочников корпоративного уровня выходит далеко за рамки отдельных компаний и должна решаться с учетом отраслевых и государственных стандартов. Организация взаимодействия множества субподрядчиков, поставка и продвижение продукции на различных рынках невозможны без формирования единых принципов унификации описания информационных объектов на основе гармонизированных стандартов.
Организация мастер-данных данных может ориентироваться на методологию технических словарей – Open Technical Dictionary (OTD), разработанных с учетом специфики российской терминологии и в соответствии с методикой стандарта ГОСТ ИСО 22745 «Системы промышленной автоматизации и интеграция. Открытые технические словари и их применение к основным данным». Доклад посвящен анализу опыта применение единой унифицированной терминологии при управлении мастер-данными для однозначного описания классов, идентификации изделий и компонентов, независимо от информационных систем их описывающих.
Вернуться
к докладчикам
Алексей Ильин, Ataccama
Окончил ВМК МГУ, кандидат технических наук. Около 20 лет опыта в области управления качеством данных, мастер-данными и метаданными, а также построения корпоративных хранилищ данных. В интересах различных международных консалтинговых компаний реализовал ряд проектов по управлению данными для ведущих российских предприятий, работающих в сфере ретейла, финансов и добычи углеводородов. Сейчас – генеральный директор российского офиса компании Ataccama, где отвечает за стратегические проекты в области управления качеством данных, управления мастер-данными и управления метаданными для заказчиков из России и стран Восточной Европы.


.
Вернуться
к докладчикам
Олег Гиацинтов, DIS Group
Закончил МГТУ им. Н.Э.Баумана. Почти четверь века в ИТ-индустрии, из которых почти 20 лет – руководство ИТ-проектами. Работал в компаниях ЛАНИТ, АВТОМИР и Xerox. Эксперт в области стратегического управления и интеграции данных, обеспечения качества и управления нормативно-справочной информацией (мастер-данными), управления знаниями, а также построения дата-центрических бизнес-процессов. Сейчас – технический директор компании DIS Group, где отвечает за консалтинг, обучение партнеров и клиентов, а также руководит техническими специалистами и собственными разработками компании.


.
Премиум-партнеры
Генеральные партнеры
Партнеры
Информационные партнеры
Стоимость участия
в рублях
7900/9900
При оплате до 01.09.2021/
с 01.09.2021 по 22.09.2021
12900
При оплате с 23.09.21
6300/7900
При оплате до 01.09.2021/
с 01.09.2021 по 22.09.2021
по коллективным заявкам
(от 3 человек)
9900
При оплате с 23.09.21
по коллективным заявкам
(от 3 человек)
Стоимость участия для ИТ-компаний
в рублях
12900
При оплате до 01.09.2021
15900
При оплате с 01.09.2021
по 22.09.2021
19900
При оплате с 23.09.21
онлайн формат

Стоимость участия в рублях
5200
Close
Close
Для связи с организаторами
conf@osp.ru
Подать заявку на доклад
Пожалуйста, укажите свои контакты,
тему и аннотацию доклада