СТРАТЕГИИ, ИНСТРУМЕНТЫ, ПРАКТИКИ, ПЕРСПЕКТИВЫ
16 февраля

Конференция «Качество данных 2022»

Информационная насыщенность и динамичность предприятий цифровой экономики требуют
от них постоянного поиска новых технологий и инструментов работы с достоверными данными. Единственная в России конференция, посвященная стратегиям и практикам обеспечения качества данных, гарантирующего высокий уровень сервисов и бизнес-процессов.
ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства
«Открытые системы»
«Данные для цифровых предприятий сегодня уже не «новая нефть» – «сожгли» и забыли, а, скорее, «плутоний», освобождающий гораздо больше полезной информации – почти неиссякаемый источник вдохновения для бизнеса. Однако этот источник может оказаться и более «токсичным», если на пути от сырых данных до корпоративного знания нет стройной системы управления качеством – основы любого проекта цифровизации. Неудивительно, что с неизменным успехом в России проходит единственная в стране ежегодная конференция посвященная проблемам построения и промышленной эксплуатации таких систем на предприятиях различных масштабов, ведомственной и отраслевой принадлежности.
Ждем вас на «Качество данных 2022» – только практика и аналитика, ничего лишнего»
Close
Close
Для связи с организаторами
conf@osp.ru
Основные темы:
Как качество данных влияет на уровень сервисов и бизнес-процессов?
Как построить свою стратегию управления качеством данных?
Как настроить системный процесс по управлению данными и их качеством?
Как консолидировать корпоративные данные, устранить дублирование и неопределенность, контролировать происхождение и зависимости данных?
Как управлять метаданными и управлять затратами?
Как повысить доверие к данным и результатам аналитики?
Выбор инструментов управления качеством данных: аналитика и опыт
Опыт внедрения и промышленной эксплуатации систем управления качеством данных:
от корпораций до SMB
В программе:
Стратегии
  • оценка влияния качества данных на бизнес-результаты, управление затратами
  • Data Governance: стратегия, стандарты, политики, методология, процедуры, процессы, владельцы и кураторы данных
  • организация обеспечения релевантности, доступности и своевременности данных
  • управления рисками и критичность качества реестров, справочников и персональных данных
  • организация обеспечения полноты, достоверности и согласованности данных
  • планирование осведомленности и развития навыков повышения качества данных
  • конвейер обеспечения качества данных с учетом особенностей конкретной организации
Практики
  • участие владельцев и кураторов данных в управлении качеством
  • разработка бизнес-глоссария, каталога данных, архитектуры данных (моделей и описания потоков, анализ происхождения и зависимости)
  • ведение и интеграция реестров, справочников и персональных данных
  • интеграция, контроль, очистка, обогащение и устранение дублирования, управление изменениями
  • профилирование, контроль и измерение, мониторинг и управление инцидентами
  • формирование культуры работы с данными
  • отраслевой и функциональный опыт 10+ отраслей: финансы, телеком, ретейл, ТЭК, промышленность, госсектор, транспорт, страхование и пр.
Инструменты
  • промышленные и Open Source, зарубежные и отечественные инструменты, критерии выбора
  • универсальные платформы: IBM, Informatica, SAS, Юнидата и др.
  • управление мастер-данными: Informatica MDM, Ataccama MDC, Юнидата, АрхиГраф.MDM и др.
  • управление качеством и подготовка данных бизнес-аналитики: Ataccama DQC, Informatica DQ, SAS DQ, IBM QualityStage, Юнидата, Tableau, QlikSense и др.
  • интеграция данных: Informatica, Denodo, SAS, Talend, Alteryx, Юнидата и др.
  • управление метаданными (бизнес-глоссарием, каталогом и моделями данных
Перспективы
  • перспективные практики и технологии обеспечения качества данных, «умное» управление качеством в реальном времени
  • модели анализа/ИИ для обнаружения информационных активов и контроля качества данных
  • учет моделей анализа и артефактов ИИ
  • измерение качества метаданных, моделей анализа и артефактов ИИ
Конференция для:
руководителей функциональных подразделений и направлений
директоров по развитию бизнеса и цифровой трансформации
бизнес-руководителей, руководителей проектов и продуктов
руководителей функциональных подразделений и направлений, ведущих специалистов
аналитиков, консультантов, специалистов по данным и экспертов по качеству данных
Спикеры:
Основные данные – основа цифровой трансформации
Любовь Коноплина
«Леруа Мерлен»
Комплексный подход к управлению качеством данных
Андрей Трянин
X5 Retail Group
Мастер-класс
Управление качеством корпоративных данных
Дискуссия
Качество данных — не кампания, а культура
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта работы в области создания сложных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, эксплуатируемых сегодня на крупных отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий». Сейчас – директор компании «ТриниДата», специализирующейся на реализации проектов создания ИТ-архитектур, интеграции и анализа данных, управления корпоративными знаниями.
Проверка точности данных

Как проверить точность данных при отсутствии возможности их сравнения с внешними достоверными источниками или получения сведений непосредственно от реального объекта? Один из способов – перекрестная проверка данных с помощью различных внутренних источников, включая текстовые документы, нужная информация в которых может содержаться в неструктурированном виде. Доклад посвящен обсуждению различных сценариев движения данных внутри компании на их пути к достоверной информации; возникающих при этом возможных нарушениях в точности; способов обнаружения и корректировки ошибок. Вместе с тем для данных, полученных в результате преобразований или расчетов, применим способ проверки их точности путем сохранения истории выполненных операций, позволяющей воспроизвести и выполнить аудит любой цепочки трансформации. Особое внимание в докладе уделено инструментам практической реализации таких методов проверки точности данных, а также оценки влияния их использования на бизнес-процессы компании или предприятия.
Вернуться
к докладчикам
Алексей Еремихин, Badoo
Окончил МИФИ, более 20 лет в ИТ-индустрии: бизнес-аналитика, работа с данными, программирование, консалтинг по проблемам анализа данных на всех этапах их жизненного цикла. Сейчас – архитектор решений для работы с данными в компании Badoo (Bumble), где отвечает за создание автоматизированных систем бизнес-аналитики, развертывание и поддержку инфраструктур, работающих с разнообразными данными петабайтных объемов.
Качество данных: о чем забывать нельзя

В своде знаний DAMA-DMBOK вопрос качества данных рассматривается лишь в аспекте их точности, упуская главное, а именно: качество – это мера соответствия продукта ожиданиям пользователей. Краеугольным камнем при обеспечении качества данных должна быть удовлетворенность пользователей товаром или сервисом – без учета мнения пользователей, оценки соответствия их ожиданий и реальности, деятельность по управлению качеством обесценивается. Архитекторы и пользователи корпоративной системы управления качеством данных должны в первую очередь думать о пользователях, а не только о "точности данных". Доклад посвящен обсуждению методов оценки ожиданий пользователей и опыта их обучения эффективной работе с данными: предоставление готовых поисковых запросов; упрощенные отчеты или модели данных; проверочные запросы, выполняющие роль регрессионных тестов оценки ожиданий пользователей от консистентности данных. Особое внимание уделено вопросам построения удобного для конкретных групп пользователей каталога данных, а также особенностям организации эффективной службы качества данных. Кроме этого анализируются проблемы, актуальные как для архитекторов систем бизнес-аналитики, ETL-разработчиков, так и для инженеров по данным.
Вернуться
к докладчикам
Владимир Вавра, «УралХим»
Окончил МГТУ им. Н.Э.Баумана. Около 25 лет в ИТ-индустрии – руководство ИТ-проектами, интеграция и анализ данных, создание ИТ-архитектуры, построение аналитических и прогнозных решений для государственных организаций и предприятий. Сейчас – руководитель отдела инфраструктуры данных АО «ОХК «УралХим».
Управление качеством данных: методология, подходы и инструменты

Чем больше данных у предприятий цифровой экономики, тем, теоретически, у них больше шансов достигнуть успеха – неудивительно, что сегодня многие компании уже в реальном времени активно собирают и обрабатывают все доступные им данные. Однако, несмотря на инвестиции в дорогостоящие инструменты бизнес-аналитики и технологии искусственного интеллекта, низкое качество данных и отсутствие культуры работы с ними может свести на нет все усилия компаний. Доклад посвящен обсуждению базовых принципов управления качеством данных на предприятиях химической промышленности, а также подходов к учету и управлению метриками качества. Особое внимание уделено обзору доступных на рынке инструментов управления качеством данных и анализу конкретного опыта поддержки процесса контроля качества.
Вернуться
к докладчикам
Светлана Бова, ВТБ
Более 20 лет опыта работы в крупнейших российских и международных банках – управление стратегическими проектами по автоматизации отчетности (управленческой, МСФО, регуляторной для ЦБ РФ) с использованием реляционных корпоративных хранилищ и технологий больших данных: «Россельхозбанк», НОМОС-Банк, МДМ-банк, ING Group и др. Реализовала масштабный проект по реинжинирингу корпоративного хранилища для групповой отчетности банка группы Societe Generale Group с внедрением сквозного процесса управления данными, включая создание единого унифицированного бизнес-глоссария данных, корпоративной модели данных и карты потоков данных, а также с автоматизацией процедур идентификации ошибок качества данных и процессов по их устранению. Удостоена премии CDO Awards 2020 за вклад в популяризацию профессии CDO (Chief Data Officer). Сейчас — директор по управлению данными Банка ВТБ (ПАО), отвечая за формирование стратегии управления данными в банке и группе компаний; разработку и организацию процессов управления данными; внедрение инструментов поиска и навигации по данным, а также единой системы контроля и мониторинга качества данных.
Тиражирование практик управления данными

Внедрение практик управления данными в каждой конкретной организации проходит свой, зачастую уникальный, путь, который зависит от стратегии компании, приоритетов направлений развития и отраслевой специфики. Что же делать, когда необходимо реализовать инициативу по управлению данными в рамках группы компаний? Какую модель организации функции управления данными выбрать? Доклад посвящен ответам на эти вопросы. Особое внимание уделено процессам первичной оценки зрелости компаний в вопросах управления данными и разработке дорожных карт проектов и инициатив, направленных на повышение культуры data-driven и эффективности использования современных инструментов работы с данными.
Вернуться
к докладчикам
Екатерина Моисеева, Tele2
Около 20 лет опыта работы в телекоммуникационной индустрии, из которых более половины в сфере обработки данных: «Салым Петролеум Девелопмент Н.В.», дочернее предприятие «Шелл Салым Девелопмент Б.В.» – технический аналитик по качеству данных, кураторство деятельности по обеспечению качества данных, неоднократно занимала первое место в рейтинге группы компаний Shell; «Газпром нефть» – отвечала за формирование культуры работы с данными и популяризацию технологий и методов повышения их качества. Сейчас – старший менеджер по качеству данных в компании Tele2.
Промышленная система управления качеством данных: приоритеты и инструменты

Успех бизнеса цифровой компании определяется ее умением управлять данными, опираясь на ясную стратегию обеспечения их качества – нельзя доверять данным, лишь приблизительно и с ошибками отражающим реальное состояние бизнес-процессов. Однако, разнообразие и изобилие источников данных, их объем и динамика изменений усложняют задачу обеспечения качества данных, способных усовершенствовать бизнес-операции и обеспечивающих оперативное принятие взвешенных бизнес-решений. Кроме этого компаниям всегда приходится выбирать между собственной разработкой и внедрением промышленного решения обеспечения качества данных, балансируя между техническим заданием и бюджетом, сроками и ожиданиями рынка. Доклад посвящен обсуждению особенностей расстановки приоритетов при решении задачи управления качеством данных, выбора инструментов, а также интеграции с корпоративными информационными системами. Особое внимание уделено анализу опыта и результатов внедрения промышленной системы управления качеством данных.
Вернуться
к докладчикам
Варвара Макарьина, «Балтика»
Окончила РГУ нефти и газа (НИУ) им. И.М. Губкина. Около десяти лет опыта в сфере бизнес-аналитики и отчетности, из них два года в сфере управления данными. Работала в ЦОД Linxdatacenter, далее перешла в пивоваренную компанию «Балтика» (Carlsberg Group). Сейчас – менеджер по развитию аналитических систем, отвечая за реализацию стратегии Data Governance, развитие направлений Data Catalog & Data Quality, обучение сотрудников практическому применению принципов управления данными.
Процессный подход к управлению качеством данных

Бизнес-процессы порождают данные, качество которых отражает как степень их соответствия предъявляемым требованиям, так и качество самих бизнес-процессов. Как определить точку приложения усилий, на регулярной основе позволяющих улучшать качество данных? Доклад посвящен анализу опыта практической работы по управлению данными и особенностям процессного подхода к обеспечению их качества. Особое внимание уделяется процессам корректировки данных и встраиванию этих процессов в рутину с учетом специфики каждого запроса.
Вернуться
к докладчикам
Яна Соколова, ОДК
Окончила Московский государственный технологический университет «Станкин» по специальности «Технология машиностроения». Более 10 лет опыта работы в ИТ-индустрии – корпоративная система управления НСИ, система мониторинга промышленного оборудования, комплексные системы автоматизации технологической подготовки производства: САПР ТП, электронные заказы на проектирование и изготовление средств технического оснащения, электронные заявки на покупные средства технологического оснащения и др. Сейчас – заместитель руководителя департамента PLM и САПР в АО «Объединенная двигателестроительная корпорация».
Как настроить системный процесс по управлению качеством данных

Рост объемов данных из разных источников усложняет процесс контроля качества как собственно данных, так и метаданных – увеличивается количество инициаторов заявок, экспертов и операторов, обрабатывающих заявки, а сами данные становятся все более разнообразными. В какой-то момент диспетчеризация заявок, разделение строк на атрибуты и анализ качества данных становятся невозможны. Отсутствие автоматизации этих процессов грозит потерей как качества, так и скорости обработки входящих данных. Доклад посвящен обсуждению инструментов автоматизированной обработки заявок на нормализацию НСИ с элементами машинного обучения и оценки качества данных. Особое внимание уделено анализу опыта применения искусственного интеллекта для начальной обработки заявки на нормализацию, а также оценке эффективности его применения.
Вернуться
к докладчикам
Любовь Кайдалова, «Газпром нефть»
Окончила Тюменский государственный нефтегазовый университет. Около 20 лет опыта работы в нефтегазовой индустрии: «Разведка и добыча в ТНК-ВР» – руководство направления планирования потребности в группе внедрения шаблона «Программы реинжиниринга процессов финансов и логистики» для бизнес-направления; «Газпром нефть» – руководитель группы проекта по унификации учета и калькуляции себестоимости всех дочерних добывающих обществ, отвечая за повышение качества управленческой отчетности, сформированной различными автоматизированными системами. Сейчас руководит направлением по качеству данных в Блоке разведки и добычи ПАО «Газпром нефть».

Ольга Тюнина, «Газпром нефть»

Окончила Тюменский государственный нефтегазовый университет. Почти 25 лет опыта работы в нефтегазовой индустрии: «Сургутнефтегаз» – оператор по добыче нефти и газа, технолог в цехе добычи нефти и газа, руководитель информационно-технологической группы в центральной инженерно-технологической службе; «Газпромнефть — Цифровые решения» – эксперт департамента решений по технологиям в добыче дирекции инновационного развития. Сейчас – руководитель рабочей группы сервиса по качеству данных, Блок разведки и добычи ПАО «Газпром нефть».
Секреты внедрения процесса управления качеством данных

Динамичность и информационная насыщенность современной цифровой бизнес-среды требуют от предприятий постоянного поиска новых технологий и инструментов работы с данными. Однако, по мере продвижения больших данных в эпоху искусственного интеллекта, компании приходят к печальному выводу – они ничего не достигнут, работая с беспорядочными данными низкого качества. Как измерить качество данных и на постоянной основе осуществлять мониторинг его показателей? Можно ли доверять данным и действительно ли они отражают реальное состояние бизнеса? Как настроить системный процесс по управлению качеством данных? Доклад посвящен ответам на эти вопросы, основываясь на конкретном опыте и реальных примерах. Особое внимание уделено рекомендациям по оптимизации процессов управления качеством и исключению ошибок.
Вернуться
к докладчикам
Любовь Кайдалова, «Газпром нефть»
Окончила Тюменский государственный нефтегазовый университет по специализации «Экономика и управление на предприятии (ТЭК)». Почти 15 лет опыта работы в нефтегазовой индустрии, в частности, руководила направлением планирования потребности в группе внедрения шаблона «Программы реинжиниринга процессов финансов и логистики» для бизнес-направления «Разведка и добыча в ТНК-ВР». В «Газпром нефть» начала карьеру с руководителя группы проекта по унификации учета и калькулирования себестоимости всех дочерних добывающих обществ, отвечая за повышение качества управленческой отчетности, сформированной различными автоматизированными системами. Сейчас руководит направлением по качеству данных в ПАО «Газпром нефть».
Управление качеством данных: успехи, неудачи, уроки

По мнению аналитиков, почти половина бизнес-инициатив проваливается из-за проблем с качеством данных. Конечно, зачастую сотрудники вручную пытаются выявлять ошибки в данных, но на всем объеме это невозможно, причем результаты проверок труднодоступны и не известны всем потребителям данных, что вызывает необходимость повторных проверок. Автоматизированные процессы управления качеством данных позволяют снизить трудозатраты на выявление, устранение и предотвращение ошибок. Как построить свою стратегию управления качеством данных? Какие именно данные критичны для бизнеса? Как заручиться поддержкой бизнеса, учитывая, что сам факт выявления ошибки проблемы их качества не решит? Как наладить эффективный конвейер обеспечения качества данных? В чем секреты обеспечения качества реестровых и справочных данных? Как на практике организовать профилирование, очистку и обогащение данных? Как выбрать инструменты управления качеством данных? Доклад посвящен ответам на эти вопросы, опираясь анализ опыта управления качеством данных в вертикально-интегрированной компании. Особое внимание уделено описанию опыта входящей в состав консорциума Open Group ассоциации Open Subsurface Data Universe, координирующей разработку стандартов и платформ экосистемы открытых данных. Кроме «Газпром нефть» в ассоциацию входят такие нефтесервисные компании и ИТ-корпорации, как: Shell, Chevron, ExxonMobil, TOTAL, Japan Oil, Schlumberger, Hitachi Vantara, Intel, IBM, Google, Nvidia и TIBCO.
Вернуться
к докладчикам
Григорий Остапенко, Росстат
Окончил Воронежский государственный технический университет по специальности — комплексное обеспечение информационной безопасности автоматизированных систем, доктор технических наук. Работал в правительстве Воронежской области: начальник отдела Управления информационных технологий, а затем – отдела Департамента информационных технологий и связи; первый заместитель руководителя Департамента связи и массовых коммуникаций, а затем – его руководитель. Сейчас – заместитель руководителя Федеральной службы государственной статистики, где курирует Управление национальной системы управления данными государственной статистики, а также Управление цифрового развития.
Цифровая трансформация Росстата

.
Вернуться
к докладчикам
Нина Адамова, НИИ «Восход»
Окончила Таганрогский радиотехнический университет по специальности «Автоматизированные системы сбора, обработки и управления информацией» и Южный федеральный университет по Федеральной программе подготовки управленческих кадров для организаций и предприятий народного хозяйства РФ. Свыше 20 лет опыта работы в области автоматизации бизнес-процессов хозяйственной деятельности организаций различного уровня – от государственных структур до частного бизнеса: работа на руководящих должностях по направлению автоматизации процессов поддержки принятия решений для предприятий различных отраслей отечественной экономики; руководство направлением по проектам Ситуационных центров, а также проектами специального назначения в АО «Концерн «Автоматика» (ГК «Ростех»). Сейчас – заместитель руководителя Научно-исследовательского департамента архитектуры в НИИ «Восход».
Качество данных для Цифровой аналитической платформы

Цифровая аналитическая платформа (ЦАП) представления статистических данных – ключевой элемент системы управления данными, создаваемой Федеральной службой государственной статистики в рамках национальной программы «Цифровая экономика». Платформа предназначена для поддержки единого информационного пространства, доступного всем органам государственной власти, коммерческим компаниям и общественным организациям. Концепция ЦАП предусматривает прозрачность всех этапов работы потребителей со статистической информацией и координацию их действий, что, в частности, позволит существенно ограничить количество форм, необходимых для заполнения, сократить перечень показателей отчетности и обеспечить однократное предоставления первичных статистических сведений. Повышение качества данных и полезности собираемых сведений обеспечивается благодаря Единой Технологической архитектуре (ЕТА) и Единой среде разработки (ЕСР), позволяющий формировать выборки для всех обследований, включая динамическую замену объектов в них. Доклад посвящен обсуждению опыта применения ЕТА и ЕСР при создании и развитии Цифровой аналитической платформы.
Вернуться
к докладчикам
Наталья Гвоздева, Минцифры РФ
Окончила Московский государственный технический университет им. Н.Э. Баумана по специальности «Инженерный бизнес и менеджмент». Более 20 лет опыта в сфере разработке информационных систем для органов государственной власти, а также консалтинга в сфере государственных финансов. Работала, в частности, в федеральных органах исполнительной власти – Федеральное казначейство РФ, где принимала участие в создании, развитии и внедрении ГИИС «Электронный бюджет» и автоматизированной системы Федерального казначейства. Сейчас – советник Министра цифрового развития РФ, курируя вопросы создания аналитического хранилища в рамках национальной системы управления данными.
Управление качеством государственных данных

Сегодня существенно возросла потребность органов государственной власти в оперативности получения данных для принятия взвешенных управленческих решений – если еще совсем недавно необходимые сведения можно было собирать месяцами, то сейчас требуется получать данные практически в режиме реального времени. Однако оперативность неизбежно сказалась на качестве данных – прежние механизмы их выверки «глазами человека» пришлось исключить. Для сохранения и повышения качества данных в новых условиях нужны новые инструменты, которые Минцифры планирует запустить в 2021 году в рамках внедрения единой информационной платформы национальной системы управления данными.
Вернуться
к докладчикам
Олег Гиацинтов, DIS Group
Закончил МГТУ им. Н.Э.Баумана. Более 20 лет в ИТ-индустрии, из которых 15 лет – руководство ИТ-проектами. Работал в компаниях ЛАНИТ, АВТОМИР и XEROX. Эксперт в области стратегического управления и интеграции данных, обеспечения качества и управления нормативно-справочной информацией (мастер-данными), управления знаниями, а также построения дата-центричных бизнес-процессов. Сейчас – технический директор компании DIS Group, где отвечает за консалтинг, обучение партнеров и клиентов, а также руководит техническими специалистами и собственными разработками компании.
Комплексный подход к управлению качеством данных

При оценке качества данных сегодня используется ряд общепринятых метрик, однако их далеко не всегда можно получить с помощью решений, предназначенных для управления качеством данных. Доклад посвящен обзору основных метрик оценки качества данных, обсуждению особенностей выстраивания процесса управления качеством в текущих условиях активного развертывания на предприятиях систем управления данными и выполнения соответствующих проектов. Особое внимание уделено анализу требований, предъявляемых к качеству данных и программным средствам для управления данными.
Вернуться
к докладчикам
Владимир Бахов, «Инлексис»
Окончил факультет вычислительной математики и кибернетики МГУ. Около 20 лет опыта работы в сфере хранилищ данных, бизнес-аналитики и целевого маркетинга: руководитель команд разработки и поддержки корпоративных аналитических систем для ряда крупнейших российских банков и телекоммуникационных компаний. Активный идеолог применения методологии Agile. Сейчас – генеральный директор компании «Инлексис», специализирующейся на создании и поддержке интеллектуальных аналитических систем и технологиях машинного обучения.
Машинное обучение для повышения качества данных

Аналитические системы управления взаимоотношениями с клиентами (ACRM) позволяют анализировать все накопленные о клиенте данные для формирования стратегии дальнейшего взаимодействия с ним. Невозможно вручную оценить качество данных, если для изучения профиля клиента требуется постоянно анализировать тысячи показателей, что типично для телекоммуникационной и банковской сферы. Можно ли доверить системам машинного обучения контроль качества данных? Способна ли система самообучения без учителя на основе исторических данных самостоятельно оценивать качество данных, а также выявлять в потоках данных неизвестные и еще не описанные экспертами проблемы? Доклад посвящен разбору практического опыта использования технологий машинного обучения, помогающих CDO и специалистам по качеству данных повысить эффективность контроля и мониторинга качества данных.
Вернуться
к докладчикам
Сергей Федоров, Сбер
Окончил Финансовую Академию при Правительстве РФ. Почти 30 лет опыта работы в финансовой сфере: Росбанк, банк «Возрождение». Член Правления Ассоциации больших данных. Руководил крупными проектами по повышению эффективности работы с данными: запуск централизованной системы управления качеством данных, внедрение ключевых процессов работы с данными, вывод в промышленную эксплуатацию автоматизированной системы управления справочной информацией, внедрение процесса согласования доступов к данным с высоким уровнем кибербезопасности. Сейчас – Управляющий директор в Департаменте управления данными (SberData), где координирует ключевые направления по работе с данными: Data governance, качество данных, нормативно-справочная информация, доступы к данным и культура работы с данными.
Опыт построения системы контроля качества данных

Управление качеством данных становится неотъемлемой частью деятельности современных организаций – от того, насколько корректные данные используются в банке, сильно зависит и качество принимаемых решений, и финансовый результат. В Сбере система управления качеством данных активно выстраивается уже на протяжении нескольких лет, развиваясь от децентрализованных неформальных активностей до внедренной в промышленную эксплуатацию группы централизованных процессов с вовлечением большого числа владельцев данных и других участников бизнес-процессов. В докладе рассказывается о становлении системы управления качеством данных в Сбере, сложностях на этом пути и их решении, а также о планах дальнейшего развития.
Вернуться
к докладчикам
Георгий Ашкар, «Ростелеком»
Более 20 лет опыта работы в телекоммуникационной индустрии – внедрение биллинговых систем и систем линейно-технического учета сетей связи. Сейчас – директор проектов в Департаменте управления справочной информацией Ростелекома, где занимается организацией проектов по управлению качеством данных, разработкой платформ и решений в области обработки, стандартизации и визуализации данных, а также трансформацией процессов в рамках data-driven культуры.
Качество данных и качество обслуживания клиентов

По мере роста объемов и разнообразия накапливаемых в компаниях данных приходит осознание их ценности для бизнеса и рисков использования некорректных сведений – в зависимости от бизнес-процессов конкретной компании влияние качества данных может варьироваться от незначительного до критического. Для Ростелеком основа критичных бизнес-процессов – это адресная информация. Доклад посвящен обсуждению опыта выполнения проекта «Паспорт дома», позволившего обеспечить переход от разрозненных, неполных и противоречивых данных, получаемых из различных источников к единому интегрированному по ключевым объектам пространству адресной информации. Единый паспорт дома используется сегодня для решения технических задач в мобильных и стационарных системах; коммерческих задач в системах продаж и маркетинга, а также в аналитических и геоинформационных системах. Особое внимание в докладе уделено анализу применяемых архитектурных, организационных и технических подходов, позволивших значительно улучшить качество процессов продаж и уровень обслуживания клиентов компании.
Вернуться
к докладчикам
Руслан Трачук, «Юнидата»
Закончил СПбПУ по специальности «Информационная безопасность». Около 20 лет опыта работы в сфере разработки ПО, например в компании «Рексофт» специализировался на создании продуктов по заказам западных клиентов рынка телекоммуникаций. Сейчас – технический директор в компании «Юнидата», где отвечает за разработка платформы управления данными и продуктов на ее основе.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Более 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Качество данных как отдельный продукт

.
Вернуться
к докладчикам
Павел Абдюшев, HFLabs
Окончил МГУ им.М.В.Ломоносова. Более 15 лет опыта работы в ИТ-индустрии, включая восемь лет в области разработки и продвижения систем управления качеством данных. Сейчас – директор по развитию в компании HFLabs, где отвечает за взаимодействие с ключевыми заказчиками, помогая им зарабатывать, повышая качество клиентских данных.

Екатерина Гордиенко, «Росгосстрах»

Окончила факультет экономики, управления и бизнеса Кубанского государственного технологического университета по специальностям «Национальная экономика» и «Оценка стоимости бизнеса предприятия». Более 15 лет опыта работы в сфере страхования. Сейчас – в ПАО СК «Росгосстрах», Блок заботы о клиентах руководит подразделением, отвечающим за качество клиентских данных.
Управление качеством данных – путь к клиенту

Люди – основа любого бизнеса и прибыль компаниям, в конечно счете, приносят ее клиенты. Для повышения работы с клиентами сегодня применяются системы класса CDI (Customer Data Integration), позволяющие интегрировать все имеющиеся о конкретном клиенте сведения. Однако, как показывает опыт, внедрение CDI – лишь начало пути постоянного совершенствования процессов взаимодействия с клиентами и требуется еще построить систему управления качеством клиентских данных и обеспечить его постоянный мониторинг. Доклад посвящен обсуждению опыта организации управления качеством данных в компании Росгосстрах и ответам на такие вопросы, как: Где польза для клиента, в чем прибыль для компании и к каким изменениям бизнес-процессов она должна быть готова? Какие требуются инструменты для построения системы управления качеством клиентских данных, удовлетворяющей и бизнес, и регуляторов? Особое внимание уделено изложению того, как убедить большие компании заниматься качеством данных и что нужно делать, чтобы заработали процессы его улучшения.
Вернуться
к докладчикам
Анатолий Чернов, «Интерфакс»
Окончил Московский Физико-Технический Институт, более 20 лет в ИТ-индустрии. Автор концепции и архитектуры экосистемы справочной и финансовой информации RU Data, информационно-аналитических терминалов реального времени Финмаркет Реал-Тайм и ЭФИР, надстройки INTERFAX Add-In для MS Excel для семейства RegTech и информационных продуктов для финансового сектора. Эксперт в области справочных данных по финансовым инструментам, цифровизации регуляторных актов Банка России и создании сложных расчетных алгоритмов. Сейчас – зам.директора по ИТ Службы финансово-экономической информации, директор по данным ЭФИР и RU Data, группа «Интерфакс».

Елена Малинина, «Интерфакс»

Окончила ВМК МГУ им. М.В.Ломоносова. Около 15 лет опыта в области автоматизации расчетов, построении математических моделей, из которых десять лет работала в сфере актуарных расчетов и управления рисками. Специализируется на автоматизации задач контроля и управления рисками. Сейчас – заместитель директора Центра экономического анализа «Интерфакс», курируя направление RegTech для некредитных финансовых организаций.
Риск-ориентированное управление качеством данных

Работа провайдера финансовой информации невозможна без обеспечения высокого качества ключевой справочной, финансовой и аналитической информации, на основании которой принимаются инвестиционные решения, оцениваются риски и строится регуляторная отчетность. Для выстраивания системы управления данными необходимы современные методы риск-менеджмента анализа бизнес-процессов, связанных с данными, а также построения контрольных механизмов. Для обеспечения качества данных важна предварительная методологическая проработка как в рамках каждого сегмента данных, так и системы в целом. В частности, предварительная структуризация и типизация данных должна отталкиваться как от задач конечных потребителей информации, так и от задач контроля бизнес-процессов. И, наконец, должна быть выстроена иерархия важности как сегментов данных, так и отдельных наборов информации в целях корректного выстраивания контрольных процессов и исключения ошибок. Доклад посвящен обсуждению всех этих проблем и анализу решений, применяемых в проекте RU Data для обеспечения качества данных.
Премиум-партнер
Генеральный партнер
Партнеры
Информационные партнеры
Стоимость участия
в рублях
7900/9900
При оплате до 31.01.2022
с 01.02.2022
12900
При оплате с 16.02.2022
6300/7900
При оплате до 31.01.2022
с 01.02.2022
по коллективным заявкам
(от 3 человек)
9900
При оплате с 16.02.2022
по коллективным заявкам
(от 3 человек)
Стоимость участия для ИТ-компаний
в рублях
12900/15900
При оплате до 31.01.2022
с 01.02.2022
19900
При оплате с 16.02.2022
онлайн формат
Стоимость участия в рублях
5900
Мы ждем Вас!
Место проведения:
Отель Palmira Business Club
(Москва, Новоданиловская набережная,6)
.

© 1992 – 2022
Издательство «Открытые системы»
ИНТЕРНЕТ - ИЗДАНИЯ