Конференция «Качество данных 2021»

Данные сегодня – ключевой фактор бизнеса и государственного управления, однако сырые данные не позволят получить ожидаемых преимуществ. Единственная в России конференция, посвященная тому, как обеспечить качество данных в соответствии с целями их использования, гарантировав полноту, точность, корректность и актуальность.
ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства
«Открытые системы»
Управление качеством – важная часть любого проекта анализа имеющихся в компаниях и организациях данных, однако, стратегия управлению качеством данных индивидуальна, ее нельзя «списать» у тех,
кто этот путь уже прошел, но можно изучить уже накопленный опыт и познакомиться с соответствующими инструментами. «Качество данных» – единственная в России конференция, собирающая пользователей
и создателей решений управления качеством данных, специалистов из разных отраслей, готовых поделиться конкретным опытом построения и реализации стратегии управления качеством данных, развертывания
и эксплуатации конвейера непрерывного обеспечения качества, необходимого любой организации
цифровой экономики.
Close
Close
Для связи с организаторами
conf@osp.ru
Обсудим:
Как качество данных влияет на бизнес: характеристики и риски, показатели и метрики?
Как построить свою стратегию управления качеством данных?
Как наладить эффективный конвейер обеспечения качества данных?
Архитектура поддержки качества данных: модели и потоки?
Как интегрировать данные и управлять метаданными?
В чем секреты обеспечения качества реестровых и справочных данных?
Как на практике организовать профилирование, очистку и обогащение данных?
Как выбрать инструменты управления качеством данных?
В программе:
Стратегия
  • показатели и метрики качества данных
  • реестровые и справочные данные
  • конвейер качества данных
  • интеграция данных: очистка, преобразование, обогащение
  • архитектура данных,
  • управление метаданными
  • Data Governance: стратегия, стандарты, политики, процедуры, процессы, владельцы и кураторы данных
Инструменты
  • критерии выбора
  • универсальные решения и платформы управления качеством данных
  • средства подготовки данных, механизмы работы с мастер-данными
  • средства интеграции данных
  • инструменты моделирования данных и управления метаданными
  • проприетарные и свободные инструменты профилирования и очистки данных, мониторинга качества, создания информационных витрин
Практика
  • разработка архитектуры и моделирование данных
  • интеграция, сертификация и нормативное регулирование
  • ведение мастер-данных
  • профилирование, контроль и измерение, мониторинг и управление инцидентами
  • формирование культуры работы с данными
  • отраслевой и функциональный опыт: 10+ отраслей, включая финансы, телеком, ретейл, ТЭК, промышленность, госсектор, здравоохранение, страхование и пр.
Конференция для:
бизнес-руководителей, руководителей проектов и информационных продуктов
ИТ-директоров, CDO и технических директоров
аналитиков, консультантов, специалистов по данным, экспертов по качеству данных
руководителей подразделений продаж, маркетинга, операций и разработки
Спикеры:
Вернуться
к докладчикам
Сергей Алешкин, «Согаз»
Закончил МИИТ по специальности «Информационные системы в экономике». Принимал участие в развертывании платформы SAP R3 для управления ресурсами ОАО «РЖД», затем более десяти лет работал на руководящих позициях в аналитических подразделениях организаций финансово-кредитного сектора: выстроил маркетинговую аналитику в ряде банков и АИЖК (ДОМ.РФ), где запустил продукт «Социальная ипотека» упростивший приобретение жилья почти 14 тысяч семьям. С 2016 года руководит подразделениями, отвечающими за цифровизацию аналитики, включая data science (исследование данных) и прогнозное моделирование в крупнейших страховых компаниях России: значительно увеличил эффективность продаж полисов ИФЛ и КАСКО клиентам ОСАГО с помощью использования моделей машинного обучения; настроил тарификацию по продуктам добровольного страхования на основе приоритезация кластеров клиентов, внедрил систему интерактивных цифровых отчетов для нужд агентской сети. Сейчас в «Согаз» отвечает за разработку моделей машинного обучения и их внедрение в бизнес-процессы компании.
Управление качеством данных в моделях искусственного интеллекта

Успех работы страховых компаний в условиях высоко конкурентного рынка во многом определяется их операционной эффективностью, однако сам факт автоматизации еще не делает предприятие цифровым – для оптимизации функционирования бизнес-процессов требуется их перестройка. Доклад посвящен анализу опыта управление качеством данных в страховании с целью их применения для совершенствования бизнес-процессов. Особое внимание уделено обеспечению качеству данных для построения моделей машинного обучения в бизнес-процессах кросс-продаж в агентской сети с целью выявления клиентов с высоким уровнем спроса на продукты добровольного страхования, позволившему на порядок повысить результативность кросс-продаж. Кроме этого, в докладе рассмотрено как анализ происхождения данных и их существующих потоков, а также оценка релевантности данных поставленной задаче вместе с выявлением зависимостей между целевыми признаками и основными характеристиками помогают сформировать эффективную модель кросс-продаж в агентской сети и, как следствие, повысить результативность продаж.
Вернуться
к докладчикам
Марианна Данилина, ПСБ
Окончила МГУ им.М.В. Ломоносова и MBA в Colorado Heights University, США. Более 15 лет опыта в банковской сфере и в области консультационных услуг для финансовых институтов. Работала в EY, KPMG, и др. Специализируется на повышении эффективности и реализации проектов по внедрению инструментов цифровой трансформации, таких как интеллектуальная роботизация бизнес-процессов и анализ больших данных. Сейчас – руководитель направления по цифровой трансформации «Промсвязьбанка».
Управление данными как активом

Почти 20% отечественных компаний ввели у себя позицию CDO, надеясь «прибраться» в доме корпоративных данных, причем почти 95% из них считают, что для этого достаточно лишь внедрить какую-либо модную технологию, например, ИИ, не утруждая себя работой над качеством данных. Однако, ни большой объем данных, ни технологии ИИ не пойдут на пользу компаниям – бизнес-целей одними технологиями не достигнуть. Мало того, неизменно растет цена ошибки при принятии решений на основе «грязных» данных. Правильное руководство данными (Data Governance) позволяет превращать их в качественные бизнес-активы, что для банка означает рост собираемости просроченной задолженности, увеличение вторичных продаж, снижение стоимости маркетинговых кампаний и пр. Доклад посвящен обсуждению подхода к управлению данными как активом и преодолению проблем, возникающих при решении задач монетизации и снижения стоимости владения данными. Особое внимание уделено метрикам оценки качества управления данными и инструментам, позволяющим предсказуемо управлять модельным риском и извлекать выгоду из данных.
Вернуться
к докладчикам
Алексей Незнанов, НИУ ВШЭ
Кандидат технических наук, доцент. Окончил МЭИ. Работал программистом, аналитиком, научным сотрудником, преподавателем высшей школы (МЭИ, МФТИ, ВШЭ и др.) – подготовил несколько авторских курсов, включая «Проектирование взаимодействия с пользователем», «Распределенные системы» и «Прикладная теория графов». С 2002 года участвовал в различных проектах комплексной корпоративной автоматизации и аналитики, в частности, в ФГБУ «Федеральный научно-клинический центр детской гематологии, онкологии и иммунологии имени Дмитрия Рогачева». Имеет опыт разработки архитектуры и реализации систем интеллектуального анализа данных. Сейчас – старший научный сотрудник Международной лаборатории интеллектуальных систем и структурного анализа, а также доцент Департамента анализа данных и искусственного интеллекта ФКН НИУ ВШЭ.
Интеграция медицинских информационных систем: качество данных и знаний

Медицинская информатика в целом и, особенно, клиническая работает с одними из наиболее сложных задач анализа данных: распознавания (диагностика), анализ временных рядов (интерпретация историй госпитализации), автоматическая обработка текстов (истории болезни и различные медицинские документы) и др. При построении систем поддержки принятия врачебных решений (CDSS) все подобные задачи должны решаться совместно, а применяемые методы обязаны обладать высоким уровнем надежности и интерпретируемости. Отсюда понятен интерес как к качеству данных, так и к качеству формальных знаний – лишь формализованные знания позволяют реально повысить «совместную квалификацию» клинициста и компьютера, а также развивать методы анализа данных и принятия решений. Примечательно, что именно в медицине хорошо развита онтологическая поддержка и накоплен громным опытом решения задач управления данными в сложнейших регуляторных и рыночных условиях. Доклад посвящен обсуждению значимости и сущности оценки качества данных и знаний для клиницистов, а также разбору наиболее общих тенденций и проблем, актуальных сегодня не только в здравоохранении: сбор и управление качеством исходных данных; особенности процессов обработки данных и интеграции медицинских информационных систем; информационное сопровождение клинических исследований, проблемы внедрения систем поддержки принятия врачебных решений и пр..
Вернуться
к докладчикам
Михаил Петров, Счетная палата РФ
Более 20 лет в ИТ-индустрии: компания «Финансовые и бухгалтерские консультанты» (ФБК/PKF), PricewaterhouseCoopers, i2, Оргкомитет «Сочи 2014», где прошел путь от руководителя Управления ERP до директора Технологического Операционного Центра, отвечая за поддержку всех технологических сервисов для десятков тысяч пользователей на всех объектах Игр. В Минкомсвязи РФ руководил программой подготовки к Чемпионату Мира по футболу 2018 года. Принимал участие в создании Проектного офиса Национальной Технологической Инициативы (НТИ). На позиции директора по управлению проектами цифровой трансформации ВТБ работал над организацией корпоративного акселератора и организацией инвестиций в финтех-проекты. Сейчас в Счетной палате Российской Федерации организует аналитическую работу с данными в области государственного аудита и контроля. Преподает в ведущих ВУЗах страны, соавтор учебников и монографии.
Роль качества в системе управления данными: люди, функции и инструменты

На пути получения полного представления об объекте исследования Счетная палата РФ сталкивается с рядом препятствий, усложняющих процесс создания пула качественных данных: разнообразие, множество разрозненных источников и большой объем данных; отсутствие стандартизации и пр. С проблемой обеспечения качества данных сталкиваются сегодня многие отечественные предприятия и организации, поэтому сегодня создается Альянс профессионалов по управлению данными, призванный консолидировать знания и опыт в данной области, а также решать задачи по подготовке специалистов. Доклад посвящен обсуждению вопросов обеспечения качества данных по всем ключевым аспектам процесса их получения: люди, функции и инструменты. Особое внимание уделено стратегии подготовки персонала и формирования культуры работы с данными – люди самое важное и самое сложное звено системы управления данными.
Вернуться
к докладчикам
Валерий Артемьев, Банк России
Окончил МГТУ им. Н.Э.Баумана, более 40 лет в ИТ-индустрии. Проходил стажировку по банковским системам (Великобритания) и повышал квалификацию по управлению данными в IBM (США, Германия). С 1993 года работает в Банке России, где планировал и руководил проектами по веб-приложениям, XML-форматам сбора отчетности, хранилищам данных и бизнес–аналитике, управлению метаданными. Разрабатывал архитектуру решений централи¬зованных прикладных систем, участвовал в создании систем блока банковского надзора: ЕИСПД для монито¬рин¬га и анализа деятельности кредитных организаций; АКС для анализа платежной информации. Сейчас работает в Центре управления данными, Департамент управления данными Банка России.
Расширенное качество данных: свойства, метрики и технологии

С ростом объемов и разнообразия данных пришло осознание их ценности и рисков для бизнеса в случае использования некорректных сведений. Важная составляющая ценности данных – это расширенное качество данных, обеспечение которого на практике означает усложнение конвейера обеспечения качества за счет добавления измерения показателей качества, мониторинга, а также обеспечения управления инцидентами и проблемами качества. Управление расширенным качеством данных включает выявление критически важных данных, формирование показателей и метрик, организацию конвейера обеспечения качества, управление мастер-данными, интеграцию данных, ведение и связывание метаданных, моделирование данных, формирование классификаторов, ведение бизнес-глоссария и бизнес-правил, анализ происхождения и зависимости данных. Доклад посвящен обсуждению задачи управления расширенным качеством данных для снижения операционных, управленческих и репутационных рисков для бизнеса. Особое внимание уделено характеристикам, показателям и метрикам расширенного качества данных, а также обзору технологий и инструментов, обеспечивающих требуемое качество данных.
Вернуться
к докладчикам
Анна Серебряникова, Ассоциация больших данных
Окончила юридический факультет МГУ им. М.В. Ломоносова, получила степень магистра права в Университете Манчестера (Великобритания). Более 20 лет в юриспруденции – курировала взаимодействие с органами государственной власти и занималась управлением бизнеса. Одна из ключевых персон телекоммуникационной отрасли России, эксперт в области цифровизации. Автор многочисленных статей, докладчик отраслевых форумов и конференций. Сейчас – управляющий партнер компании nlogic, президент Ассоциации больших данных, объединяющей крупных отечественных владельцев больших данных с целью создания в стране благоприятных условий для развития технологий и продуктов в этой сфере.

Ксения Дроздова, nlogic

Окончила математический факультет НИУ ВШЭ и магистерскую программу «Компьютерная лингвистика». Занималась разработкой алгоритмов голосовой биометрии. Принимала участие в разработке интеллектуального ядра робота LegalApe, представленного на VIII Петербургском международном юридическом форуме. Сейчас – руководитель команды разработки компании nlogic, где курирует общую деятельность команды и отвечает за развитие проектов.
Как обеспечить качество данных для проектов искусственного интеллекта?

Работа с данными – важнейший этап любого проекта искусственного интеллекта, требующий особого внимания и отдельных ресурсов. Доклад посвящен обсуждению зависимости успешности проектов искусственного интеллекта от объемов и репрезентативности данных, а также влияния этих факторов на качество работы систем ИИ и их устойчивость к разнообразию входных данных. Кроме этого рассмотрен практический аспект работы с данными – этап разметки, на котором из большого количества примеров выделяются данные, которые предстоит находить с помощью алгоритмов ИИ. Качество модели во многом зависит именно от разметки данных – невозможно построить эффективную модель машинного обучения, гарантирующую минимум ошибок без качественных, подготовленных и классифицированных обучающих примеров. Особое внимание в докладе уделено обзору реализованных проектов искусственного интеллекта и обсуждению подходов к обеспечению их успешной промышленной эксплуатации.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет работает в области создания сложных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, эксплуатируемых сегодня на крупных отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий». Сейчас – директор компании «ТриниДата», специализирующейся на реализации проектов создания ИТ-архитектур, интеграции и анализа данных, управления корпоративными знаниями.
Корпоративная отчетность: быстро, легко и точно

В процессе подготовки корпоративной отчетности компании обычно сталкиваются с множеством проблем, вызванных разнородностью источников данных, необходимостью отслеживать происхождение каждого показателя, быстро изменять состав и структуру форм отчетности, а также сравнения данных из разных источников, определения степени доверия каждому значению показателя и обеспечения "сходимости" показателей в разных отчетах. Решение этих проблем позволит превратить работу с корпоративной отчетностью из нудной, трудоемкой и формальной деятельности, чреватой порождением критических для бизнеса ошибок, в процесс создания полезной информации, помогающей при принятии решений и формировании точной картины состояния дел на предприятии. Доклад посвящен обсуждению способов решения проблем, возникающих при подготовке корпоративных отчетов, а также инструментов, позволяющих быстро обрабатывать имеющиеся в компании данные с учетом всех их взаимосвязей.
Вернуться
к докладчикам
Алевтина Тинас, Tele2
Окончила Липецкий государственный технический университет по специальности «Автоматизированные системы управления». Более 15 лет опыта работы в ИТ-индустрии, из них 12 лет в области управления данными: создание корпоративной аналитической системы в компании «Фольксваген Банк РУС»; развитие системы управления корпоративными данными компании СИБУР. Сейчас исполняет обязанности Директора по управлению данными в компании Tele2, где отвечает за реализацию стратегии развития платформы данных, а также инструментов и процессов управления данными.

Екатерина Моисеева, Tele2

Почти 15 лет опыта работы в телекоммуникационной индустрии, из которых около 10 лет в сфере работы с данными: технический аналитик по качеству данных в компании «Салым Петролеум Девелопмент Н.В.» – дочернего предприятия «Шелл Салым Девелопмент Б.В.» и ПАО «Газпром нефть» – где отвечала за формирование культуры работы с данными и популяризацию технологий и методов повышения их качества. За время работы в компании команда, курирующая деятельность по обеспечению качества данных неоднократно занимала первое место в рейтинге группы компаний Shell. Сейчас – старший менеджер по качеству данных в компании Tele2.
Система координат для качества данных

В каждой компании обычно по-разному понимается понятие «качество данных» – в некоторых ошибка лишь в одной записи считается критичной для бизнеса, а для других будет незначительна потеря тысяч строк из базы данных. Как определить, какие данные и какого качества важны для компании? Кто может дать объективную оценку текущего уровня качества данных? Как выстроить систему мониторинга качества данных и понять насколько вообще эффективно работают процессы управления данными? Доклад посвящен обсуждению метрик (KPI) оценки качества данных на примере телекоммуникационной отрасли. Особое внимание уделено обсуждению актуальности определенных метрик, отвечающих специфике конкретного бизнеса.
Вернуться
к докладчикам
Алексей Ильин, Ataccama
Окончил ВМК МГУ, кандидат технических наук. Около 20 лет опыта в области управления качеством данных, мастер-данными и метаданными, а также построения корпоративных хранилищ данных. В интересах различных международных консалтинговых компаний реализовал ряд проектов по управлению данными для ведущих российских предприятий, работающих в сфере ретейла, финансов и добычи углеводородов. Сейчас – генеральный директор российского офиса компании Ataccama, где отвечает за стратегические проекты в области управления качеством данных, управления мастер-данными и управления метаданными для заказчиков из России и стран Восточной Европы.

Александр Сабуров, Россельхозбанк

Окончил Финансовый университет при Правительстве РФ. Более десяти лет занимался корпоративным развитием, стратегией и повышением эффективности деятельности трех банков из Топ-20. Руководил программами проектов развития корпоративных ИТ и внедрением систем управления данными. Сейчас – CDO Россельхозбанка.
Инструменты управления качеством данных: вчера, сегодня, завтра

Любая компания и организация цифровой экономики сталкивается сегодня с проблемами обеспечения качества данных, пытаясь, как правило, решать их с помощью различных разрозненных инструментов, позволяющих, как правило, справиться лишь с отдельными задачами и требуя, при этом, значительных трудозатрат. Доклад посвящен обсуждению опыта перехода финансовой компании от использования точечных процессов и инструментов повышения качества данных к единой централизованной функции и использованию интегрированной технологии управления качеством данных. Особое внимание уделено изложению взгляда компании Ataccama на текущее состояние дел по применению инструментов класса Data Quality в компаниях и организациях различной отраслевой принадлежности, а также обсуждению возможностей средств от Ataccama, помогающих не только повысить эффективность внедрения решений по управлению качеством данных, но и вовлечь в процессы улучшения качества данных максимальное число сотрудников.
Вернуться
к докладчикам
Александр Афонин, X5 Retail Group
Окончил Кубанский Государственный Технический Университет по специальности прикладная информатика в экономике. Почти 20 лет в ИТ индустрии, из них около 15 лет в работает федеральных розничных сетях, начав как разработчик, архитектор, а в последствии руководитель проектами и командами разработчиков. Успешно завершил ряд крупных ИТ-проектов, включая решения класса TMS (Transport Management System) и WMS (Warehouse Management System) для крупной розничной сети. Руководил департаментом разработки ПО в несколько сотен человек, имеет опыт работы в качестве CIO. Сейчас – директор департамента развития платформы по управлению качеством данных, офис CDO X5 Retail Group.
Платформа управления качеством данных для ретейла

Качество и доступность данных стали сегодня важнейшими факторами успеха в бизнесе – применение любых аналитических инструментов бессмысленно при отсутствии доверия к данным, а любые проблемы c их качеством неизбежно приводят к существенным издержкам в компаниях, особенно такого масштаба, как X5. Доклад посвящен практикам внедрения процессов поддержки качества данных, метрикам их оценки, а также вопросам формирования культуры работы с данными. Особое внимание уделено обсуждению подходов к созданию платформы обеспечения качества данных и роли бизнес-пользователей в процессе управления качеством.
Вернуться
к докладчикам
Любовь Кайдалова, «Газпром нефть»
Окончила Тюменский государственный нефтегазовый университет по специализации «Экономика и управление на предприятии (ТЭК)». Почти 15 лет опыта работы в нефтегазовой индустрии, в частности, руководила направлением планирования потребности в группе внедрения шаблона «Программы реинжиниринга процессов финансов и логистики» для бизнес-направления «Разведка и добыча в ТНК-ВР». В «Газпром нефть» начала карьеру с руководителя группы проекта по унификации учета и калькулирования себестоимости всех дочерних добывающих обществ, отвечая за повышение качества управленческой отчетности, сформированной различными автоматизированными системами. Сейчас руководит направлением по качеству данных в ПАО «Газпром нефть».
Управление качеством данных: успехи, неудачи, уроки

По мнению аналитиков, почти половина бизнес-инициатив проваливается из-за проблем с качеством данных. Конечно, зачастую сотрудники вручную пытаются выявлять ошибки в данных, но на всем объеме это невозможно, причем результаты проверок труднодоступны и не известны всем потребителям данных, что вызывает необходимость повторных проверок. Автоматизированные процессы управления качеством данных позволяют снизить трудозатраты на выявление, устранение и предотвращение ошибок. Как построить свою стратегию управления качеством данных? Какие именно данные критичны для бизнеса? Как заручиться поддержкой бизнеса, учитывая, что сам факт выявления ошибки проблемы их качества не решит? Как наладить эффективный конвейер обеспечения качества данных? В чем секреты обеспечения качества реестровых и справочных данных? Как на практике организовать профилирование, очистку и обогащение данных? Как выбрать инструменты управления качеством данных? Доклад посвящен ответам на эти вопросы, опираясь анализ опыта управления качеством данных в вертикально-интегрированной компании. Особое внимание уделено описанию опыта входящей в состав консорциума Open Group ассоциации Open Subsurface Data Universe, координирующей разработку стандартов и платформ экосистемы открытых данных. Кроме «Газпром нефть» в ассоциацию входят такие нефтесервисные компании и ИТ-корпорации, как: Shell, Chevron, ExxonMobil, TOTAL, Japan Oil, Schlumberger, Hitachi Vantara, Intel, IBM, Google, Nvidia и TIBCO.
Вернуться
к докладчикам
Григорий Остапенко, Росстат
Окончил Воронежский государственный технический университет по специальности — комплексное обеспечение информационной безопасности автоматизированных систем, доктор технических наук. Работал в правительстве Воронежской области: начальник отдела Управления информационных технологий, а затем – отдела Департамента информационных технологий и связи; первый заместитель руководителя Департамента связи и массовых коммуникаций, а затем – его руководитель. Сейчас – заместитель руководителя Федеральной службы государственной статистики, где курирует Управление национальной системы управления данными государственной статистики, а также Управление цифрового развития.
Цифровая трансформация Росстата

.
Вернуться
к докладчикам
Нина Адамова, НИИ «Восход»
Окончила Таганрогский радиотехнический университет по специальности «Автоматизированные системы сбора, обработки и управления информацией» и Южный федеральный университет по Федеральной программе подготовки управленческих кадров для организаций и предприятий народного хозяйства РФ. Свыше 20 лет опыта работы в области автоматизации бизнес-процессов хозяйственной деятельности организаций различного уровня – от государственных структур до частного бизнеса: работа на руководящих должностях по направлению автоматизации процессов поддержки принятия решений для предприятий различных отраслей отечественной экономики; руководство направлением по проектам Ситуационных центров, а также проектами специального назначения в АО «Концерн «Автоматика» (ГК «Ростех»). Сейчас – заместитель руководителя Научно-исследовательского департамента архитектуры в НИИ «Восход».
Качество данных для Цифровой аналитической платформы

Цифровая аналитическая платформа (ЦАП) представления статистических данных – ключевой элемент системы управления данными, создаваемой Федеральной службой государственной статистики в рамках национальной программы «Цифровая экономика». Платформа предназначена для поддержки единого информационного пространства, доступного всем органам государственной власти, коммерческим компаниям и общественным организациям. Концепция ЦАП предусматривает прозрачность всех этапов работы потребителей со статистической информацией и координацию их действий, что, в частности, позволит существенно ограничить количество форм, необходимых для заполнения, сократить перечень показателей отчетности и обеспечить однократное предоставления первичных статистических сведений. Повышение качества данных и полезности собираемых сведений обеспечивается благодаря Единой Технологической архитектуре (ЕТА) и Единой среде разработки (ЕСР), позволяющий формировать выборки для всех обследований, включая динамическую замену объектов в них. Доклад посвящен обсуждению опыта применения ЕТА и ЕСР при создании и развитии Цифровой аналитической платформы.
Вернуться
к докладчикам
Светлана Бова, Банк ВТБ
Почти 20 лет опыта работы в крупнейших российских и международных банках – управление стратегическими проектами автоматизации отчетности (управленческой, МСФО, регуляторной для Банка России) с использованием корпоративных хранилищ данных на базе реляционных СУБД и технологий BigData: «Россельхозбанк», НОМОС-Банк, МДМ-банк, ING Group и др. Реализовала масштабный проект по реинжинирингу корпоративного хранилища данных для групповой отчетности банка группы Societe Generale Group с внедрением сквозного процесса управления данными, включая создание единого унифицированного бизнес-глоссария, корпоративной модели данных и карты потоков данных, а также с автоматизацией процедур идентификации ошибок качества данных и процессов по их устранению. Ведет активную просветительскую и образовательную деятельность для продвижения в России практик и методик управления данными. Удостоена премии CDO Awards 2020 за вклад в популяризацию профессии CDO. Сейчас – директор по управлению данными (Chief Data Officer), «Банк ВТБ», где отвечает за формирование стратегии управления данными в банке и группе компаний, разработку и организацию процессов управления данными, внедрение инструментов поиска и навигации по данным, а также единой системы контроля и мониторинга качества данных.
Как выстроить эффективные процессы управления качеством данных?

«Чистота в данных» – залог «здоровья» любого предприятия и компании цифровой экономики. Чем крупнее организация, чем масштабнее спектр продуктов и сервисов, которые она предоставляет своим клиентам и чем разнообразен ее ИТ-ландшафт, тем более чувствительны ее бизнес-процессы к качеству данных. Доклад посвящен обсуждению пошагового выстраивания эффективных процессов управления качеством данных и секретов их вплетения в корпоративную архитектуру, а также интеграции в производственные процессы внесения изменений в информационные системы и бизнес-процессы. Особое внимание уделено выбору наиболее адекватной бизнесу операционной модели управления качеством данных, инструмента контроля и мониторинга их качества. Кроме этого, анализируется опыт внедрения такого мониторинга в банках и разбираются типовые ошибки.
Вернуться
к докладчикам
Наталья Гвоздева, Минцифры РФ
Окончила Московский государственный технический университет им. Н.Э. Баумана по специальности «Инженерный бизнес и менеджмент». Более 20 лет опыта в сфере разработке информационных систем для органов государственной власти, а также консалтинга в сфере государственных финансов. Работала, в частности, в федеральных органах исполнительной власти – Федеральное казначейство РФ, где принимала участие в создании, развитии и внедрении ГИИС «Электронный бюджет» и автоматизированной системы Федерального казначейства. Сейчас – советник Министра цифрового развития РФ, курируя вопросы создания аналитического хранилища в рамках национальной системы управления данными.
Управление качеством государственных данных

Сегодня существенно возросла потребность органов государственной власти в оперативности получения данных для принятия взвешенных управленческих решений – если еще совсем недавно необходимые сведения можно было собирать месяцами, то сейчас требуется получать данные практически в режиме реального времени. Однако оперативность неизбежно сказалась на качестве данных – прежние механизмы их выверки «глазами человека» пришлось исключить. Для сохранения и повышения качества данных в новых условиях нужны новые инструменты, которые Минцифры планирует запустить в 2021 году в рамках внедрения единой информационной платформы национальной системы управления данными.
Вернуться
к докладчикам
Олег Гиацинтов, DIS Group
Закончил МГТУ им. Н.Э.Баумана. Более 20 лет в ИТ-индустрии, из которых 15 лет – руководство ИТ-проектами. Работал в компаниях ЛАНИТ, АВТОМИР и XEROX. Эксперт в области стратегического управления и интеграции данных, обеспечения качества и управления нормативно-справочной информацией (мастер-данными), управления знаниями, а также построения дата-центричных бизнес-процессов. Сейчас – технический директор компании DIS Group, где отвечает за консалтинг, обучение партнеров и клиентов, а также руководит техническими специалистами и собственными разработками компании.
Комплексный подход к управлению качеством данных

При оценке качества данных сегодня используется ряд общепринятых метрик, однако их далеко не всегда можно получить с помощью решений, предназначенных для управления качеством данных. Доклад посвящен обзору основных метрик оценки качества данных, обсуждению особенностей выстраивания процесса управления качеством в текущих условиях активного развертывания на предприятиях систем управления данными и выполнения соответствующих проектов. Особое внимание уделено анализу требований, предъявляемых к качеству данных и программным средствам для управления данными.
Вернуться
к докладчикам
Владимир Бахов, «Инлексис»
Окончил факультет вычислительной математики и кибернетики МГУ. Около 20 лет опыта работы в сфере хранилищ данных, бизнес-аналитики и целевого маркетинга: руководитель команд разработки и поддержки корпоративных аналитических систем для ряда крупнейших российских банков и телекоммуникационных компаний. Активный идеолог применения методологии Agile. Сейчас – генеральный директор компании «Инлексис», специализирующейся на создании и поддержке интеллектуальных аналитических систем и технологиях машинного обучения.
Машинное обучение для повышения качества данных

Аналитические системы управления взаимоотношениями с клиентами (ACRM) позволяют анализировать все накопленные о клиенте данные для формирования стратегии дальнейшего взаимодействия с ним. Невозможно вручную оценить качество данных, если для изучения профиля клиента требуется постоянно анализировать тысячи показателей, что типично для телекоммуникационной и банковской сферы. Можно ли доверить системам машинного обучения контроль качества данных? Способна ли система самообучения без учителя на основе исторических данных самостоятельно оценивать качество данных, а также выявлять в потоках данных неизвестные и еще не описанные экспертами проблемы? Доклад посвящен разбору практического опыта использования технологий машинного обучения, помогающих CDO и специалистам по качеству данных повысить эффективность контроля и мониторинга качества данных.
Вернуться
к докладчикам
Сергей Федоров, Сбер
Окончил Финансовую Академию при Правительстве РФ. Почти 30 лет опыта работы в финансовой сфере: Росбанк, банк «Возрождение». Член Правления Ассоциации больших данных. Руководил крупными проектами по повышению эффективности работы с данными: запуск централизованной системы управления качеством данных, внедрение ключевых процессов работы с данными, вывод в промышленную эксплуатацию автоматизированной системы управления справочной информацией, внедрение процесса согласования доступов к данным с высоким уровнем кибербезопасности. Сейчас – Управляющий директор в Департаменте управления данными (SberData), где координирует ключевые направления по работе с данными: Data governance, качество данных, нормативно-справочная информация, доступы к данным и культура работы с данными.
Опыт построения системы контроля качества данных

Управление качеством данных становится неотъемлемой частью деятельности современных организаций – от того, насколько корректные данные используются в банке, сильно зависит и качество принимаемых решений, и финансовый результат. В Сбере система управления качеством данных активно выстраивается уже на протяжении нескольких лет, развиваясь от децентрализованных неформальных активностей до внедренной в промышленную эксплуатацию группы централизованных процессов с вовлечением большого числа владельцев данных и других участников бизнес-процессов. В докладе рассказывается о становлении системы управления качеством данных в Сбере, сложностях на этом пути и их решении, а также о планах дальнейшего развития.
Вернуться
к докладчикам
Георгий Ашкар, «Ростелеком»
Более 20 лет опыта работы в телекоммуникационной индустрии – внедрение биллинговых систем и систем линейно-технического учета сетей связи. Сейчас – директор проектов в Департаменте управления справочной информацией Ростелекома, где занимается организацией проектов по управлению качеством данных, разработкой платформ и решений в области обработки, стандартизации и визуализации данных, а также трансформацией процессов в рамках data-driven культуры.
Качество данных и качество обслуживания клиентов

По мере роста объемов и разнообразия накапливаемых в компаниях данных приходит осознание их ценности для бизнеса и рисков использования некорректных сведений – в зависимости от бизнес-процессов конкретной компании влияние качества данных может варьироваться от незначительного до критического. Для Ростелеком основа критичных бизнес-процессов – это адресная информация. Доклад посвящен обсуждению опыта выполнения проекта «Паспорт дома», позволившего обеспечить переход от разрозненных, неполных и противоречивых данных, получаемых из различных источников к единому интегрированному по ключевым объектам пространству адресной информации. Единый паспорт дома используется сегодня для решения технических задач в мобильных и стационарных системах; коммерческих задач в системах продаж и маркетинга, а также в аналитических и геоинформационных системах. Особое внимание в докладе уделено анализу применяемых архитектурных, организационных и технических подходов, позволивших значительно улучшить качество процессов продаж и уровень обслуживания клиентов компании.
Вернуться
к докладчикам
Руслан Трачук, «Юнидата»
Закончил СПбПУ по специальности «Информационная безопасность». Около 20 лет опыта работы в сфере разработки ПО, например в компании «Рексофт» специализировался на создании продуктов по заказам западных клиентов рынка телекоммуникаций. Сейчас – технический директор в компании «Юнидата», где отвечает за разработка платформы управления данными и продуктов на ее основе.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Более 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Качество данных как отдельный продукт

.
Вернуться
к докладчикам
Павел Абдюшев, HFLabs
Окончил МГУ им.М.В.Ломоносова. Более 15 лет опыта работы в ИТ-индустрии, включая восемь лет в области разработки и продвижения систем управления качеством данных. Сейчас – директор по развитию в компании HFLabs, где отвечает за взаимодействие с ключевыми заказчиками, помогая им зарабатывать, повышая качество клиентских данных.

Екатерина Гордиенко, «Росгосстрах»

Окончила факультет экономики, управления и бизнеса Кубанского государственного технологического университета по специальностям «Национальная экономика» и «Оценка стоимости бизнеса предприятия». Более 15 лет опыта работы в сфере страхования. Сейчас – в ПАО СК «Росгосстрах», Блок заботы о клиентах руководит подразделением, отвечающим за качество клиентских данных.
Управление качеством данных – путь к клиенту

Люди – основа любого бизнеса и прибыль компаниям, в конечно счете, приносят ее клиенты. Для повышения работы с клиентами сегодня применяются системы класса CDI (Customer Data Integration), позволяющие интегрировать все имеющиеся о конкретном клиенте сведения. Однако, как показывает опыт, внедрение CDI – лишь начало пути постоянного совершенствования процессов взаимодействия с клиентами и требуется еще построить систему управления качеством клиентских данных и обеспечить его постоянный мониторинг. Доклад посвящен обсуждению опыта организации управления качеством данных в компании Росгосстрах и ответам на такие вопросы, как: Где польза для клиента, в чем прибыль для компании и к каким изменениям бизнес-процессов она должна быть готова? Какие требуются инструменты для построения системы управления качеством клиентских данных, удовлетворяющей и бизнес, и регуляторов? Особое внимание уделено изложению того, как убедить большие компании заниматься качеством данных и что нужно делать, чтобы заработали процессы его улучшения.
Вернуться
к докладчикам
Анатолий Чернов, «Интерфакс»
Окончил Московский Физико-Технический Институт, более 20 лет в ИТ-индустрии. Автор концепции и архитектуры экосистемы справочной и финансовой информации RU Data, информационно-аналитических терминалов реального времени Финмаркет Реал-Тайм и ЭФИР, надстройки INTERFAX Add-In для MS Excel для семейства RegTech и информационных продуктов для финансового сектора. Эксперт в области справочных данных по финансовым инструментам, цифровизации регуляторных актов Банка России и создании сложных расчетных алгоритмов. Сейчас – зам.директора по ИТ Службы финансово-экономической информации, директор по данным ЭФИР и RU Data, группа «Интерфакс».

Елена Малинина, «Интерфакс»

Окончила ВМК МГУ им. М.В.Ломоносова. Около 15 лет опыта в области автоматизации расчетов, построении математических моделей, из которых десять лет работала в сфере актуарных расчетов и управления рисками. Специализируется на автоматизации задач контроля и управления рисками. Сейчас – заместитель директора Центра экономического анализа «Интерфакс», курируя направление RegTech для некредитных финансовых организаций.
Риск-ориентированное управление качеством данных

Работа провайдера финансовой информации невозможна без обеспечения высокого качества ключевой справочной, финансовой и аналитической информации, на основании которой принимаются инвестиционные решения, оцениваются риски и строится регуляторная отчетность. Для выстраивания системы управления данными необходимы современные методы риск-менеджмента анализа бизнес-процессов, связанных с данными, а также построения контрольных механизмов. Для обеспечения качества данных важна предварительная методологическая проработка как в рамках каждого сегмента данных, так и системы в целом. В частности, предварительная структуризация и типизация данных должна отталкиваться как от задач конечных потребителей информации, так и от задач контроля бизнес-процессов. И, наконец, должна быть выстроена иерархия важности как сегментов данных, так и отдельных наборов информации в целях корректного выстраивания контрольных процессов и исключения ошибок. Доклад посвящен обсуждению всех этих проблем и анализу решений, применяемых в проекте RU Data для обеспечения качества данных.
Генеральные партнеры
Партнеры
Информационные партнеры