Главная Всероссийская конференция по созданию, развертыванию и эксплуатации конвейера обеспечения гарантированного качества данных.
ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства «Открытые системы»
«Качество данных – ключ к успеху деятельности любого современного предприятия, критический конкурентный фактор успешной реализации бизнес-стратегий. Без актуальных и достоверных данных невозможны дополнительная прибыль и повышение производительности. VII Всероссийская конференция «Качество данных» – выбор истинного вектора инвестирования в надежный конвейер управления качеством данных, обеспечения их достоверности и безопасности для минимизации рисков претворения в жизнь любых цифровых инициатив»
Качество данных само по себе не возникает, а привязано к конкретным бизнес-процессам, непосредственно влияя на их эффективность: качество данных – качество бизнес-процессов. Когда данные достаточного качества, то его и не замечают, однако для этого прежде необходимо изменить процессы получения данных, обеспечить их актуальность и устранить непротиворечивость, автоматизировать бизнес-процессы и работать над полнотой сведений на входе, ведя постоянный мониторинг качества данных. В противном случае: мусор на входе – мусор на выходе
Проверки не улучшают и не гарантируют качество данных – нельзя контролем встроить качество в изделие. Стабильно получать достоверные, чистые, актуальные данные можно лишь в результате отладки статистически управляемых процессов их генерации, трансформации, хранения и удаления. Внутри этих процессов для потребителей и поставщиков данных огромное значение имеет точность и взаимная согласованность инструментов и методов, применяемых при работе с данными на всех этапах их жизненного цикла. Для стабильной же работы инструментов требуется квалифицированный персонал и культура работы с данными.
Яна Яремчук,«АЛРОСА»
Окончила Российский государственный социальный университет и НИУ ВШЭ. Степень МВА, международная квалификация по управленческому учету и управлению эффективностью бизнеса CIMA (модули P1 и P2), диплом по Международной финансовой отчетности (DipIFR). Более двадцати лет опыта работы в сфере реструктуризации бизнес-процессов; разработки методик, внедрения ИТ-систем; автоматизации деятельности предприятия. Прошла путь от разработчика до CIO в компании HOGART – крупном дистрибуторе на рынке инженерных систем. В таких компаниях, как: «Айсберри», «Абрау Дюрсо», «ПТК», «Эко-Нива», «КСЕП» и др. реализовала проекты по логистике склада, транспорта, производства. В ГК «Мангазея» (Золотодобыча, Девелопмент, Агро, ИТ) руководила департаментом управления проектами. Сейчас – руководитель департамента управления проектами, АК «АЛРОСА» (ПАО).
Вернуться к докладчикам
Анна Ерохина,независимый эксперт
Окончила Ярославский государственный технический университет и НИУ ВШЭ. Более 10 лет опыта работы в области управления основными и справочными данными: АО «Лакокрасочные материалы» – руководитель службы качества (организация работы отдела внутрипроизводственного контроля качества, организация процессов обеспечения качества, сертификация по системе менеджмента качества, прохождение внешних аудитов на соответствие ISO, работа с претензиями потребителей); ГК «Р-Фарм» – руководитель службы управления нормативно-справочной информацией (организация подразделения, разработка процессов управления данными и внедрение централизованных стандартов для производственных площадок различной направленности); Danone – руководитель корпоративного сервиса по поддержке мастер-данных; Health&Nutrition – руководитель технической поддержки сервиса по управлению мастер-данными. Сейчас – руководитель практики MDM в крупнейшей зарубежной компании сектора FMCG.
Вернуться к докладчикам
Владимир Анисимов, «Сибинтек-Софт»
Окончил Московский Индустриальный университет по специальностям Физика и Экономика и Управление на предприятиях машиностроения. Более 20 лет опыта работы в энергетике: АО «Мосэнергосбыт» – CDTO; «Интер РАО» – внедрение систем бизнес-аналитики в контуре группы, системы автоматизированного сбора задолженности с использованием машинного обучения, применение RPA-технологий в бизнес-процессах юридического блока, внедрение механизмов нормализации данных. Сейчас – директор направления инновационных продуктов «Сибинтек-Софт», отвечает за развитие направления Витрин (прикладное применение сервиса самообслуживания и инструментов работы с данными для бизнес-пользователей, на базе компонентов единой цифровой платформы компании НК «Роснефть»). Специализируется на визуальной аналитике, процессной аналитике, аналитика задач (TaskMining), инструментах LowCode работы с данными и промышленных инструментах реализации подхода MetaData driven для промышленной обработки данных.
Вернуться к докладчикам
Виталий Когтев, «Нейросетевые технологии»
Окончил Сибирскую Аэрокосмическую Академию по специальности «системный анализ» и Санкт-Петербургский Международный Институт Менеджмента (ИМИСП). Почти четверть века опыта работы в ИТ-индустрии: управление проектами, системный и бизнес-анализ; внедрение процессов и инструментов Data Governance. Участвовал в проектировании и развертывании новой организационной модели «Управление данными» в «Газпром нефть», выполнял постановку и контроль «образа результата» инструментов управления данными: бизнес-глоссарий, каталог данных, качество данных. Имеет сертификат CDMP (Certified Data Management Professional). Сейчас – эксперт и руководитель проектов машинного обучения, компания «Нейросетевые технологии».
Вернуться к докладчикам
Роман Раевский, rapeed.ai
Окончил Уральский государственный технический университет — УПИ им. Б. Н. Ельцина (УГТУ-УПИ), имеет сертификат MCSE. Почти 30 лет опыта работы в ИТ-индустрии – системы бизнес-аналитики, ИИ, ERP и CRM: Columbus IT – вывод на отечественный рынок ERP-системы Axapta; «Полиматика» – основатель и генеральный директор. Сейчас – автор и основатель аналитической платформы rapeed.ai.
Окончила Московский государственный финансовый университет при Правительстве РФ. Почти 20 лет опыта работы в сфере финансов и аналитики: «Федеральное казначейство России» – советник отдела мониторинга и анализа операций; МТС – аналитик хранилища данных; «ВымпелКом» – специалист по управлению данными. Сейчас – начальник отдела развития и внедрения практик по управлению данными и контролю качества данных, МКБ.
Контроль качества данных – от точечных проверок к автоматизации заведения инцидентов
Кристальной чистоты в 100% корпоративные данные вряд ли возможны, однако вполне возможно построить эффективный конвейер: профилирование, контроль и измерение, очистка и обогащение, мониторинг и управление инцидентами, позволяющий оценить степень загрязненности данных, повысить их качество и привязать к бизнес-стратегии для развертывания правильных структуры их монетизации. Кроме этого в рабочие процессы обработки и анализа данных можно и нужно интегрировать обнаружение инцидентов. Доклад посвящен обсуждению многолетнего опыта налаживания системы управления инцидентами качества данных: сделанные шаги, победы и неудачи. Особое внимание уделено анализу полученных результатов и планам дальнейшего выстраивания процессов контроля качества данных.
Вернуться к докладчикам
«Росгосстрах»
Как навести порядок в данных
Финансовое закрытие отчетного периода — это не просто подготовка отчета, а сложный, многоэтапный процесс сбора, очистки, верификации и согласования данных, в котором задействованы десятки людей, множество информационных систем и взаимозависимых процедур, начиная от загрузки первички до консолидации итоговых показателей. Основная проблема в том, что у этого процесса часто нет единой точки оркестрации – находясь в изолированных системах участники обычно выполняет свою часть работы, сроки пересекаются, а статус готовности данных нередко не очевиден. Итог — ручная сборка, несогласованность версий и неопределенность по дате подготовки итогового массива данных. Как навести порядок в потоках данных и избежать хаоса? Какие шаги можно автоматизировать, какой инструмент использовать и как он помогает обеспечить контроль и прозрачность на каждом этапе? Доклад посвящен ответам на эти и другие вопросы, на основе обобщения опыта реального кейса. Доклад не про теорию, а про практическую схему, которую можно адаптировать под любой бизнес.
Вернуться к докладчикам
Григорий Бокштейн,TData
Окончил Национальный Исследовательский Ядерный Университет «МИФИ». Более 10 лет опыта управления международными проектами по оптимизации работы сетей сотовой связи (GSM, UMTS, LTE, 5G) в интересах ведущих мировых телекоммуникационных операторов, курировал внедрение систем сбора данных с базовых станций для последующего моделирования и анализа. Кроме этого занимался развитием продуктов по управлению данными. Сейчас – ведущий эксперт по управлению данными, отвечает за продвижение и развитие платформы управления данными TData.
DataOps – ключ к качественным данным
Почему для принятия бизнес-решений критически важны именно качественные данные? Какие инструменты сегодня обеспечивают в компаниях достоверность и качество данных и как оптимально развертывать и применять эти инструменты? Как эффективно внедрять практики DataOps на базе инструментов управления данными и какие возможности это дает для повышения качества данных в хранилищах? Доклад посвящен ответам на эти и многие другие вопросы, связанные с процессом обеспечения качества корпоративных данных.
Вернуться к докладчикам
Николай Шевцов,«ОТП-Банк»
Более 20 лет опыта работы в ИТ-индустрии: Банк ДОМ.РФ – руководитель блока «Дата», «Аэрофлот» – руководитель направления Big Data; BDO Unicon – директор практики ИТ-решений. Сейчас – CDO «ОТП-Банк».
Качество данных: от желаний к реализации
Доклад посвящен анализу практики управления качеством данных, начиная от формирования требований и заканчивая процессом инцидент-менеджмента. Особое внимание уделено обсуждению метрики качества данных и ответу на вопрос: как найти баланс между превентивными и реактивными контролями?
Вернуться к докладчикам
Андрей Андриченко,«ЭсДиАй Солюшен»
Окончил Московский технологический институт (МТИ), к.т.н., специалист в области САПР технологических процессов. Более 30 лет опыта работы в ИТ-индустрии: руководитель отдела САПР в НИИ авиационных технологий (НИАТ); руководитель технологического направления в компании «Аскон». Три поколения созданных САПР, используются сегодня на сотнях промышленных предприятий страны. Руководил проектом по созданию отечественной MDM-системы («Сколково»). Сейчас – директор по развитию в АО «ЭсДиАй Солюшен», отвечает за продвижение решений MDM в крупных промышленных холдингах и корпорациях.
Обеспечение качества корпоративных мастер-данных
Обеспечение качества и стандартизация данных – ключевые задачи национального проекта «Экономика данных». Только на основе качественных данных можно реализовать как новые бизнес-функции, приносящие дополнительную прибыль, так и эффективные государственные функции. Однако, для того чтобы прикладные информационные системы могли использовать качественные данные, необходимы единые стандарты на форматы их представления и обмена, а их разработка должна выполняться в соответствии с методологией обеспечения полноты, достоверности и однозначности идентификации информационных объектов. Методология открытых технических словарей Open Technical Dictionary (OTD) ГОСТ ИСО 22745, реализованная в среде MDM, регламентирует терминологию и определения, необходимые для создания библиотеки шаблонов, содержащих наборы характеристик для различных классификационных групп. Наличие такой библиотеки позволяет осуществлять контроль и проверку информации сразу на этапе ее ввода. Доклад посвящен обсуждению путей решения проблемы обеспечения качества корпоративных мастер-данных в среде MDM, а также анализу соответствующих инструментов.
Вернуться к докладчикам
Олег Молчанов,«Магнит»
Окончил Кубанский государственный университет по направлению Управление качеством в социально-экономической сфере. Почти 15 лет опыта работы в ретейле, из которых шесть лет, специализируется на управлении данными. Сейчас – руководитель направления по метаданным и качеству данных, Департамента по работе с данными компании «Магнит», отвечая за обеспечение доверия сотрудников к данным и развитие культуры data-driven.
Кто и как обеспечивает «здоровье» данных
Здоровье данных – ключевой аспект успешного бизнеса современных компаний, обеспечивающий возможность принятия взвешенных управленческих решений на основе достоверных и актуальных сведений, вне зависимости от того, кто их принимает: сотрудники или искусственный интеллект. Однако, сотрудников и моделей может быть много, уровень их компетенций и обученности может быть различным, что порождает проблемы при принятии решений, не говоря уже о том, что и инструментов, и разнородных данных в масштабах современного крупного розничного бизнеса очень много. В свою очередь требуемый уровень здоровья данных достигается и поддерживается только за счет непрерывной и комплексной работы по обеспечению их качества. Доклад посвящен обсуждению многолетнего опыта управления командой обеспечения качества данных в крупнейшей федеральной сети розничных магазинов: от появления ресурсного пула до стандартизации деятельности. Особое внимание уделено анализу особенностей решения актуальных практических задач: ключевые показатели эффективности и система мотивации, организация ежедневной работы, обеспечение взаимодействия с другими участниками жизненного цикла данных и пр.
Вернуться к докладчикам
Максим Солопин,МКБ
Окончил Южный Федеральный университет, факультет высоких технологий. Почти 20 лет опыта работы в ИТ-индустрии: РОСБАНК – руководитель направления развития и сопровождения хранилища данных. Сейчас – руководитель Центра компетенции разработки корпоративного хранилища данных, Московский кредитный банк, где отвечает за создание платформы данных.
Фреймворк для загрузки качественных данных в хранилище
Одна из ключевых задач хранилища данных – обеспечение эффективной загрузки качественных данных для их дальнейшего анализа и принятия обоснованных решений. Однако, поступающие из различных источников данные, как правило имеют различную структуру, качество, консистентность и пр., что приводит к ошибкам. Подобные проблемы призван решить фреймворк, автоматизирующий и упрощающий процесс загрузки в хранилище данных из множества источников. Доклад посвящен анализу архитектуры такого фреймворка. Особое внимание уделено обсуждению ключевых задач, решаемых с помощью такого инструмента, а также особенностей использованных технических решений и подходов, позволивших создать гибкую и масштабируемую систему доставки бизнес-пользователям актуальных и качественных данных.
Вернуться к докладчикам
Юлия Шарафутдинова,Т1 ИИ
Окончила Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» по направлению «Управление в технических системах». Более десяти лет опыта работы в сфере нормализации данных по техническому обслуживанию и ремонту оборудования. Сейчас – эксперт, бизнес-аналитик дивизиона развития технологий искусственного интеллекта, бизнес-лид продукта нормализации данных, Т1 ИИ.
Методы анализа больших данных для нормализации в производственных системах
Задача нормализации корпоративных данных, а также справочников производственных систем – очистка от повторов, избыточности, несогласованностей и пр., традиционно решается вручную, либо с минимальным применением средств автоматизации. Однако, при нормализации десятков миллионов записей, поступающих из разных источников такой подход к повышению качества данных производственных систем не эффективен. Для обработки больших массивов данных можно применять моделирование и запуск специализированного процесса обработки, позволяющего имплементировать классические алгоритмы работы с большим данными и инструменты ИИ в процесс очистки и нормализации данных для повышения их качества. Вместе с тем, данные, подлежащие нормализации специфичны для каждой компании и отрасли, поэтому процесс нормализации должен быть максимально гибким и предусматривать возможность настройки до пользовательских конфигураций. Доклад посвящен обсуждению особенностей применения методов анализа больших данных при нормализации производственных данных. Особое внимание уделено анализу методов нормализации, обеспечивающих максимальную гибкость и адаптируемость для каждой функции.
Вернуться к докладчикам
Виктор Черников,ВТБ
Окончил Государственный университет управления, МГЮА и НИУ ВШЭ: управление рисками, юриспруденция, экономика. Более 15 лет опыта работы в сфере управления данными: SQL, Python, SAS, Superset, др. Разрабатывал и внедрял подходы по управлению данными в Банках РФ и Европы. Сейчас – Лидер стрима Контроля качества моделей и модельных данных, Департамент анализа данных и моделирования, ВТБ.
Инструмент глубокого контроля данных
В условиях постоянных изменений уже не эффективен популярный и достаточный для бизнеса подход к управлению качеством данных с помощью проверок базовых признаков качества, покрывающих лишь статичные данные и не отражающих влияние на процессы, связанные с этими данными: модели машинного обучения, создание аналитических слоев и обязательных маршрутов отчетности из различных информационных систем. Для переключения фокуса внимания с конкретных объектов необходимо между данными и процессами строить карты зависимостей, напоминающие нейронные связи. Оценка качества данных в парадигме влияния на бизнес осуществляется на основе метода Data Drift, предназначенного для работы с маршрутами движения данных в изменяющихся условиях, а также создания узла контроля, позволяющего определять насколько сильно могут пострадать последующие процессы в случае сбоя. Доклад посвящен обсуждению особенностей подходов для поиска аномалий и идентификации проблем на всех слоях потоков данных от первоисточника до аналитического слоя. Особое внимание уделено подходам к формированию на протяжении всего жизненного цикла узлов контроля, создаваемых с помощью метода Data Drift, точно идентифицирующего проблему и настраивающего необходимые триггеры на уровнях владельцев данных и информационных систем.
Вернуться к докладчикам
Марина Суслова,HeadHunter
Окончила НИУ ВШЭ. Более 10 лет опыта в области аналитики данных и разработки фреймворков по контролю качества данных: Ozon, БКС. Сейчас – руководитель команды управления данных, отвечает за качество данных и управление данными, HeadHunter.
Качество данных и другие практики Data Governance
Как внедрение практик Data Governance может помочь улучшить процессы обеспечения качества данных? Доклад посвящен ответам на этот вопрос, а также обсуждению устройства фреймворка проверок качества данных. Кроме этого обсуждается, как поиск владельцев помогает направлять предупреждения о инцидентах с DQ специалистам, ответственным за управление качеством данных – Lineage можно использовать для связывания алертов по зависимым таблицам, а стандарты позволяют делать однотипные тесты и за счет этого разворачивать их на все таблицы сразу без необходимости ручной настройки каждого. При такой организации работы даже единая методология ТЗ для разработчиков сайта по сбору статистики с ресурса может существенно помочь при решении задачи обеспчения качества данных.
Вернуться к докладчикам
Ирина Шахтарина,Сбер
Окончила Самарский государственный университет по специальности «Информатика и вычислительная техника». Почти 20 лет опыта работы в ИТ-индустрии. Сейчас – аналитик в Сбере, где отвечает за контроль качества данных.
Как не «сломать» мозг и построить систему контроля качества данных
Управлять благосостоянием без качественных данных невозможно. Доклад посвящен обсуждению опыта организации проверок данных, поступающих из различных внутренних и общедоступных источников, выстраивания и трансформации системы мониторинга, а также поддержки культуры работы с данными, предполагающей исключение дублирования проверок и установку приоритетов их выполнения. Особое внимание уделено анализу опыта инцидент-менеджмента между разными командами. В основу доклада положен опыт работы с данными блока «Управление благосостоянием» Сбера: брокерские и индивидуальные инвестиционные счета, продукты доверительного управления, паи в паевых инвестиционных фондах, обезличенные металлические счета, управление доходами по договорам накопительного и инвестиционного страхования жизни и доходами от вложения денежных средств в негосударственные пенсионные фонды.
Вернуться к докладчикам
Сергей Духовенский,ФМСМ
Окончил Московский Авиационный Институт по специальности «Прикладная математика и физика». Почти 15 лет опыта работы в области анализа данных, из них более десяти с хранилищами данных: Райффайзен Банк, ОАО «АТС», СИБУР. Сейчас – Manager Data Quality в ООО «ФМСМ», отвечает за развитие направления качества данных в корпоративном хранилище.
Эффективное управление качеством данных на основе объектно-ориентированной модели
Развитие корпоративных хранилищ данных часто сопровождается подключением новых источников данных и для того, чтобы сохранить требуемый уровень качества данных, необходимо разрабатывать и добавлять новые проверки в систему мониторинга. На практике это означает пропорциональное повышение затрат на управление процессами качества данных. Один из способов оптимизации процедуры подключения новых источников – и, как следствие, управления качеством данных – это переход на объектно-ориентированную модель данных. Доклад посвящен анализу опыта перевода управления качеством данных на объектно-ориентированную модель, позволившему на 30% повысить эффективность внутренних процессов. Особое внимание уделено обсуждению применяемых технологий и возникших проблем, а также особенностей миграции.
Вернуться к докладчикам
Татьяна Борисова,«Балтика»
Окончила Волгоградскую Академию государственной службы. Более 10 лет опыта работы в сфере бизнес-аналитики продаж и операционной деятельности: за четыре года с нуля выстроила процессы управления данными в компании «Балтика»; более пяти лет отвечала за развитие процессов планирования продаж и операций (S&OP), обеспечивая взаимодействие подразделений в России и странах Восточной Европы. Сейчас – начальник аналитического отдела, ООО «Пивоваренная компания «Балтика», отвечает за реализацию стратегии цифровизации и бесперебойную доставку качественных данных для формирования аналитической отчетности.
Андрей Ефимов,«Балтика»
Окончил Нижегородский государственный университет им. Н. И. Лобачевского. Почти пять лет работы в сфере разработки источников данных и BI-отчетности в цепи поставок: ООО «Кока-Кола ЭйчБиСи Евразия» – поддержка бесперебойности и обеспечения регулярного код-ревью BI-отчетности, техническая поддержка сотрудников по вопросам подготовки отчетности. Сейчас – ведущий специалист по digital-решениям, ООО «Пивоваренная компания «Балтика».
Код-ревью – основа качественной отчетности
Чистота и качество кода в аналитической отчетности одной стороны влияет как на ценность ИТ-ресурсов компании, так и на время формирования отчетов для пользователей. В идеальном мире каждый разработчик уверен в своем коде, любая строка которого написана с заботой и вниманием к деталям. Код-ревью в таком мире – это не только обязательная процедура, но и возможность для роста и обучения, где любой комментарий и рекомендация помогают сотруднику повысить свою квалификацию. Доклад посвящен обзору решений для построения такого мира, в котором обеспечивается бесперебойность формирования отчетности благодаря комплексу мер, позволяющих эффективнее использовать ИТ-ресурсы, облегчающих понимание и поддержку кода другими разработчиками. Особое внимание уделено анализу опыта внедрения системы формирования BI-отчетности, практики проведения проверок и анализа кода, а также формализации рекомендаций по его написанию, актуальных для всех систем бизнес-аналитики и позволивших обеспечить подготовку качественных данных для любой такой системы.
Вернуться к докладчикам
Татьяна Борисова,«Балтика»
Окончила Волгоградскую Академию государственной службы. Более 10 лет опыта работы в сфере бизнес-аналитики продаж и операционной деятельности: за четыре года с нуля выстроила процессы управления данными в компании «Балтика»; более пяти лет отвечала за развитие процессов планирования продаж и операций (S&OP), обеспечивая взаимодействие подразделений в России и странах Восточной Европы. Сейчас – начальник аналитического отдела, ООО «Пивоваренная компания «Балтика», отвечает за реализацию стратегии цифровизации и бесперебойную доставку качественных данных для формирования аналитической отчетности.
Код-ревью – основа качественной отчетности
Чистота и качество кода в аналитической отчетности одной стороны влияет как на ценность ИТ-ресурсов компании, так и на время формирования отчетов для пользователей. В идеальном мире каждый разработчик уверен в своем коде, любая строка которого написана с заботой и вниманием к деталям. Код-ревью в таком мире – это не только обязательная процедура, но и возможность для роста и обучения, где любой комментарий и рекомендация помогают сотруднику повысить свою квалификацию. Доклад посвящен обзору решений для построения такого мира, в котором обеспечивается бесперебойность формирования отчетности благодаря комплексу мер, позволяющих эффективнее использовать ИТ-ресурсы, облегчающих понимание и поддержку кода другими разработчиками. Особое внимание уделено анализу опыта внедрения системы формирования BI-отчетности, практики проведения проверок и анализа кода, а также формализации рекомендаций по его написанию, актуальных для всех систем бизнес-аналитики и позволивших обеспечить подготовку качественных данных для любой такой системы.
Вернуться к докладчикам
Анна Ерохина,независимый эксперт
Окончила Ярославский государственный технический университет, «инженер химик-технолог», второе высшее образование по специальности «Экономист», а также НИУ ВШЭ по программе ИТ-менеджмент. Почти десять лет опыта работы в области управления основными и справочными данным: АО «Лакокрасочные материалы» – руководитель службы качества (организация работы отдела внутрипроизводственного контроля качества, организация процессов обеспечения качества, сертификация по системе менеджмента качества, прохождение внешних аудитов на соответствие ISO, работа с претензиями потребителей); ГК «Р-Фарм» – руководитель службы управления нормативно-справочной информацией (организация подразделения, разработка процессов управления данными и внедрение централизованных стандартов для производственных площадок различной направленности); Danone – руководитель корпоративного сервиса по поддержке мастер-данных (СНГ). Сейчас – руководитель технической поддержки сервиса по управлению мастер-данными, Health&Nutrition.
Люди – главный фактор обеспечения качества данных
Основные данные и процессы обеспечения их качества – неотъемлемые компоненты функции Управления данными организации любого уровня зрелости. Ключевым фактором успеха внедрения, поддержки и развития соответствующих процессов является человеческий фактор, поддерживаемый внутрикорпоративной культурой для получения и распоряжения достоверными данными. Доклад посвящен обсуждению проблемы и способов организации подразделений, ответственных за ведение и управление основными данными. Особое внимание уделено анализу влияния мотивации сотрудников компании на чистоту и качество данных.
Вернуться к докладчикам
Александр Ошурков,МТС
Окончил МГТУ им. Н.Э. Баумана. Почти 20 лет опыта работы в ИТ-индустрии – развитие новых направлений, связанных с большими данными, Data Science и ИИ: Netcracker Technology – бизнес-аналитик; Nexign – системный архитектор; IBM – техническая поддержка клиентов; МКБ – руководитель подразделения машинного обучения. Сейчас – руководитель направления машинного обучения, МТС.
Как автоматизировать описание данных с помощью ИИ-агентов
На вооружении любой телекоммуникационной компании имеется множество сервисов и информационных систем для поддержки работы аналитиков, для которых актуальна задача поиска нужных данных. Однако, часто ее решение оказывается невозможным из-за отсутствия качественного описания данных – текста на естественном языке, раскрывающего суть данных (схем, таблиц и колонок), а также категоризации данных. Большие языковые модели (LLM) открыли новые возможности для решения проблемы поиска данных. Доклад посвящен анализу опыта внедрения интеллектуальных агентов, позволивших значительно ускорить процесс формирования качественного описания данных в Дата Каталоге.
Вернуться к докладчикам
Евгений Антропов,IBS
Окончил Московский физико-технический институт (МФТИ) по специальности прикладная физика и математика. Более 20 лет опыта работы в ИТ-индустрии. Участвовал в развитии рынка электронных торговых площадок и электронных каталогов. Работал в международной компании – автоматизация закупочной деятельности. Более 10 лет опыта работы в области управления мастер-данными. Сейчас – директор отделения управления мастер-данными, компания IBS.
Проверка благонадежности контрагентов
Доклад посвящен обсуждению опыта реализации комплексного проекта по повышению качества справочников контрагентов. На базе собственного MDM-решения был доработан функционал интеграции с внешними источниками достоверной информации о контрагентах, а также реализован функционал формирования взвешенной оценки кредитора и процесс обогащения данных. В результате повысилось качество информации по контрагентам, была автоматизирована работа с внешними источниками, что существенно ускорило процесс введения новых контрагентов в документооборот.
Вернуться к докладчикам
Виталий Масальский,СОФРОС
Окончил Российский Государственный Гуманитарный Университет. Более десяти лет опыта работы в сфере развития бизнеса, расширения каналов продаж и поддержки клиентов: Belsis – менеджер по развитию продаж; ДатаКрат – руководитель проектов. Сейчас – директор по развитию бизнеса, СОФРОС.
Автоматизация формирования Rich-контента
Для повышения конкурентоспособности, увеличению продаж и укреплению позиций на рынке компаниям-дистрибьюторам требуются эффективные инструменты. Доклад посвящен анализу опыта реализации проекта для крупнейшего отечественного федерального дистрибьютора. В рамках проекта был разработан уникальный механизм управления Rich-контентом средствами системы MDM (1С:MDM Управление НСИ) и интеграционной платформы предприятия (DATAREON Platform). Особое внимание в докладе уделено обсуждению возможностей плагина для автоматического формирования изображения для карточек товара в соответствии с требованиями различных маркетплейсов. Кроме этого разбираются доработки унаследованной MDM-системы заказчика, направленные на повышение качества данных, используемых при формировании карточек товаров.
Вернуться к докладчикам
Михаил Александров,Axenix
Свыше 20-ти лет опыта работы в ИТ-индустрии – из них больше половины в области аналитики: Tops Business Integrator, BearingPoint, Teradata, SAS, «Полиматика» – руководство разработкой продукта Polymatica ML. Имеет опыт создания и внедрения систем управления эффективностью, продвинутой аналитики, анализа и отчетности, а также инструментов интеграции, управления качеством данных и НСИ в интересах производственных и финансовых корпораций. Сейчас – технический руководитель Центра развития аналитических продуктов, компания Axenix.
Как бизнес-подразделениям эффективно управлять качеством данных?
Часто процессы управления качеством данных при реализации соответствующих проверок требуют обеспечения взаимодействия бизнес-подразделений со службами ИТ или CDO. Однако ИТ-ландшафт, информационные потоки и требования к данным весьма динамичны: развертываются и модернизируются ИТ-системы (в том числе в рамках проектов по локализации); меняются бизнес-процессы; подключаются новые источники данных и т.д. В результате процессы и инструменты управления качеством данных отстают от актуальных потребностей бизнеса – линейные подразделения испытывают серьезные сложности при работе с данными. В докладе обсуждаются требования к процессам и инструментам управления качеством данных: поддержка работы бизнес-подразделений в режиме самообслуживания (self-service), обеспечение соответствия актуальному технологическому стеку (modern data stack), использование возможностей ИИ для автопрофилирования и выявления аномалий в данных, поддержка работы в федеративной структуре.
Вернуться к докладчикам
Мария Ришняк,PARMA TG
Окончила МГТУ им. Н.Э.Баумана. Более десяти лет опыта работы в области консалтинга и руководства проектами управления данными для крупных государственных структур и энергетических компаний. Работала над интеграцией и созданием систем сквозной бизнес-аналитики. Возглавляла проекты построения единых цифровых платформ федерального масштаба в интересах Федеральной службы государственной регистрации, кадастра и картографии (Росреестр) и Министерства Российской Федерации по развитию Дальнего Востока. Сейчас – заместитель директора по развитию, компания PARMA TG.
Аналитика для холдингов: как обрабатывать 150+ млн записей?
Для принятия управленческих решений головным компаниям холдингов нужна объективная аналитика, однако сложно собрать достоверные, качественные данные, если «дочки» распределены территориально, работают достаточно независимо друг от друга и аккумулируют большой объем информации. Как построить аналитическую систему, обрабатывающую более 150 млн записей, собранных из десятков интегрированных систем? Доклад посвящен ответу на этот вопрос.
Вернуться к докладчикам
Геннадий Чепиков,«Белоруснефть»
Окончил Белорусский государственный университет транспорта. Более десяти лет опыта работы в строительной индустрии – работа с данными, начиная от их сбора, проверки, обработки, хранения и до визуализации. Сейчас – аналитик данных, ПО «Белоруснефть», отвечает за цикл разработки аналитической отчетности, развитие аналитической системы и системы по работе с данными.
Обеспечение качества данных при реализации строительных проектов
Строительная отрасль сегодня еще отстает по уровню цифровизации, что приводит к множеству проблем, связанных с неэффективным использованием сгенерированных данных. Вместе с тем, сложный жизненный цикл строительства, нехватка квалифицированных кадров и недостаток эффективного обмена строительными данными между заинтересованными сторонами и системами затрудняют обеспечение качества данных, которые в дальнейшем будут использоваться для создания аналитической отчетности по мониторингу реализации проектов строительства. Доклад посвящен обсуждению конкретных подходов, позволяющих получить данные, отвечающие заявленным критериям качества, а также методам организации сбора, обработки и хранения некачественных данными. Особое внимание уделено анализу процесса обеспечения мониторинга некачественных данных, организованного на базе независимого технологического стека строительных проектов в топливо-энергетической отрасли.
Вернуться к докладчикам
Алиса Школьникова,«КОРУС Консалтинг»
Почти 20 лет опыта работы в ИТ-консалтинге: внедрение систем: ERP, СЭД, автоматизация бизнес-процессов, бизнес-аналитика, хранилища данных и управление данными. Руководила командами до 100 человек, включая субподрядчиков. Принимала участие в разработке продуктов и их позиционировании на рынке. В роли консультанта выполняла такие задачи, как: проведение обследований, описание процессов «as is», формирование концепций - процессы «to be», разработка дорожных карт. Выступала в роли внешнего CDO в рамках формирования функции управления данными. Сейчас – руководитель практики Data Governance, департамент аналитический решений, ГК «КОРУС Консалтинг».
Сю-Ха-Ри, или как японская философия помогает управлять качеством данных
В изучении боевых искусств, по мнению японцев и китайцев, есть три ступени: «Сю» (оставаться) – соблюдать, заучивать в точности все, что говорит учитель; «Ха» (разрушать) – прорываться, обдумывать свои действия, пробовать нарушать правила, осваивать приемы других учителей, строить свою систему знаний и правил; «Ри» (свобода) – отделяться, правил нет, а есть только естественный ход вещей и надо подняться над правилами, чтобы создать более высокие и общие принципы. Большинство компаний уже перешло на уровень зрелости, на котором возникло понимание, что такое качество данных и какие есть основные критерии качества (DAMA-DMBOK – это «учитель»), однако прорыва во внедрении и использовании такого понимания достигли далеко не все, а даже лишь единицы. Чужно сделать, чтобы случился тот самый – прорыв? Каким образом перейти на третью ступень, когда качество данных становится частью каждого процесса, связанного с данными в компании? Доклад посвящен ответам на эти вопросы.
Вернуться к докладчикам
Алексей Горячев, «Лемана Тех»
Окончил Московский Государственный Технический Университет «МАМИ» (Московский Политех). Более десяти лет опыта работы в ИТ-индустрии – проектирование и поддержка автоматизированных систем, развитие инфраструктуры корпоративного хранилища данных, разработка процессов ETL, ELT, системы мониторинга данных: «Связной»; «Газпромбанк». Сейчас – руководитель продукта и разработки платформы Data Quality, «Лемана Тех» (Леруа Мерлен).
Александр Ткачев,«Лемана Тех»
Окончил ДВГУ (Дальневосточный федеральный университет). Более десяти лет опыта работы в ИТ-индустрии – разработка инструментов для хранилищ данных. Сейчас – ведущий инженер данных, «Лемана Тех» (Леруа Мерлен).
Качество данных – от запросов ad-hoc к платформе
В компании Лемана Про (Леруа Мерлен) активно идут процессы цифровой трансформации бизнеса, призванные обеспечить поддержку выхода на новые сегменты рынка, переход к модели экосистемы, увеличения точности прогнозов логистики и запасов, а также выполнение других ключевых процессов. Однако цифровизация часто сопровождается появлением «молодых» продуктов, бурное развитие которых и скорость внедрения новых возможностей иногда превалируют над стабильностью. В таких условиях, в дополнение к политике строгой экономии расходов, актуальным становится инструмент, при минимальных трудозатратах на мониторинг качества данных, обеспечивающий повышение качества управленческой отчетности и других дата-продуктов. Доклад посвящен обсуждению опыта создания корпоративной платформы качества данных, развитие и развертывание которой прошло путь от периодических ручных запросов ad-hoc по качеству данных до централизованного инструмента self-service. Особое внимание уделено анализу результатов внедрения платформы: формирование культуры работы с данными, вовлечение пользователей и пр.
Вернуться к докладчикам
Сергей Полехин,PIX Robotics
Более 20 лет опыта работы в сфере бизнес-аналитики: Qlik – руководитель направления предпродажного консалтинга в России и СНГ; Microsoft – технологический архитектор в сегменте корпоративных заказчиков. Принимал участие в создании сотен прототипов BI-решений, а при работе с крупнейшими заказчиками обеспечивал масштабирование проектов и создание центров компетенции. Сейчас – владелец продукта PIX BI, компания PIX Robotics.
Самообслуживание в бизнес-аналитике – не только визуализация, но и полноценная работа с данными
Обеспечение заданного качества данных — неотъемлемая часть процесса подготовки данных для систем бизнес-аналитики. Процесс обеспечения качества невозможно вырвать из общего процесса подготовки данных, а сам обобщенный процесс подготовки данных не имеет смысла без контроля качества данных. В любой организации максимальную ценность приносят не абстрактные «качественные данные», а пользователи-предметники, точно знающие как формулировки решаемых ими задач, так и необходимые и достаточные требования к качеству данных, используемых при решении конкретных проблем бизнеса. Однако, максимальная производительность достигается, когда бизнес-пользователи решают бизнес-задачи в режиме самообслуживания, в одном инструменте проходя все стадии. Кроме этого, максимальная ценность от уже решенных задач возможна лишь когда накапливается экспертиза, полученная в рамках решения отдельных задач, обобщается и в рамках компании доступна всем заинтересованным пользователям. Это справедливо и для любых вопросов обеспечения качества данных. Доклад посвящен обсуждению создания и опыта эксплуатации инструмента бизнес-аналитики «3 в 1», позволяющего быстро выполнять первичную оценку имеющихся данных; приводить качество данных к необходимому уровню в разрезе конкретной бизнес-задачи; использовать подготовленные данные для решения задачи.
Вернуться к докладчикам
Ирина Соколова-Краевская,«АЛРОСА»
Окончила Университет ИТМО. Более 10 лет опыта работы в области аналитики и управления данными, включая внедрение корпоративных хранилищ и аналитической платформы, концептуальное проектирование архитектуры данных, внедрение инструментов MDM и Data Governance в российских и европейских компаниях. Сейчас – главный эксперт группы методологии и инструментов качества данных, «АЛРОСА».
Качество данных. Начало
Для любого предприятия качественные данные– это ценный актив, а время – ценный ресурс. Проверки качества данных позволяют компании извлекать максимальную ценность из актива, экономя ресурсы. Проверки качества данных минимизируют время, затрачиваемое пользователями на перепроверку предоставленных данных, отчетов, а также выявление и устранение неточностей и аномалий. Проверки качества данных, как и любой мониторинг, позволяют техническим специалистам проактивно реагировать на проблемы еще до момента их обнаружения пользователем, что существенно влияет на общую эффективность работы с данными. Однако, если для бизнеса задачи обеспечения качества данных не входят в перечень линейных (приносящих прибыль), то внутри компании для их решения сложно найти спонсора. Что делать? Доклад посвящен ответу на этот вопрос путем решения задач популяризации процессов повышения качества данных через встраивание соответствующих проверок в дата-сервис и их визуализации в используемой бизнесом отчетности.
Вернуться к докладчикам
Денис Тепляков,«МегаФон»
Окончил Дальневосточный федеральный университет. Более пяти лет работы в ИТ-индустрии: эксплуатация и контроль качества данных в отчетности. Сейчас – старший инженер качества данных, «МегаФон».
Зачем нужен Self-service Data Quality?
На основе данных из информационных систем в контуре компании «МегаФон» и за его пределами формируется отчетность, позволяющая проводить анализ ситуации на рынке и внутри компании, принимать взвешенные управленческие решения. Отчетность реализована на базе Корпоративного хранилища данных. В докладе представлена собственная разработка Self-service Data Quality, предоставляющая пользователям средства самостоятельного контроля актуальности и качества данных в витринах Корпоративного хранилища данных.
Вернуться к докладчикам
Ярослав Игнатьев,«Дата Сапиенс»
Окончил Кемеровский Государственный Университет (КемГУ) по специальности физика (микроэлектроника). Более 20 лет опыта работы в сфере анализа данных телекоммуникационного, финансового, страхового сектора и ретейла. Более 10 лет опыта работы в области управления мастер-данными. Сейчас – архитектор продукта.
Грязные данные – чистый анализ: стратегии исправления некорректных данных вручную
Данные редко бывают идеальными – неизбежны ошибки, пропуски и несоответствия, однако аналитическая работа не может дожидаться безупречной работы источников данных. Как обеспечить корректные результаты аналитики – чисты анализ, если автоматизированные методы исправления мгновенного эффекта не дают? Доклад посвящен разберу стратегий исправления данных вручную. Когда и как вовлекать пользователей в процесс корректировки? Какие инструменты и подходы помогают минимизировать влияние ошибок на аналитику? Как эффективно сочетать ручную и автоматическую обработку для поддержки качества данных?
Вернуться к докладчикам
Александр Учаев,«1С»
Окончил Мордовский государственный университет им. Н.П. Огарева. Более 30 лет опыта работы в ИТ-индустрии – проекты внедрения в компаниях различных отраслей экономики: ПАО «Транснефть», ПАО «СИБУР Холдинг», ПАО «Ростелеком», АО «ОМК», предприятия Московского транспорта, строительства, пищевой промышленности и др. Имеет опыт руководства проектами на стороне ИТ-консалтинга и на стороне заказчиков. Сейчас – продакт-менеджер, отвечает за разработку, сопровождение и продвижение продукта «1С:MDM Управление нормативно-справочной информацией».
Методы управления качеством персональных данных согласно 152-ФЗ: новые вызовы и решения
Современный бизнес работает в условиях постоянных изменений регуляторной политики, что оказывает существенное влияние на методы управления качеством персональных данных. В условиях непрерывных коррекций 152-ФЗ «О персональных данных», компаниям приходится адаптировать свои процессы и инструменты для соответствия нормативным требованиям, несоблюдение которых означает серьезные штрафы и репутационные потери. Доклад посвящен обсуждению основных изменений в регуляторной среде с точки зрения управления качеством, а не только защиты данных и информационной безопасности. Разбирается как справиться с новыми вызовами в обеспечении качества персональных данных с помощью таких современных технологических решений, как «Data Quality Management» (DQM) и «Управление персональными данными» программного продукта «1С:MDM Управление нормативно-справочной информацией». Кроме этого, в докладе определены подходы и методы организации управления качеством данных на примере персональных данных, а также проведен анализ имеющихся в экосистеме 1С:Предприятие инструментов. Особое внимание уделено анализу практических примеров использования новых подсистем для управления качеством персональных данных.
Вернуться к докладчикам
Олег Гиацинтов,DIS Group
Окончил МГТУ им. Н.Э.Баумана. Более четверти века опыта работы в ИТ-индустрии, из которых 20 лет – руководство ИТ-проектами: «Ланит», «Автомир», Xerox. Эксперт в области: стратегического управления и интеграции данных; обеспечения качества и управления нормативно-справочной информацией; управления знаниями, а также построения дата-центрических бизнес-процессов. Сейчас – технический директор компании DIS Group.
Качество данных – основа цифровой компании будущего
Доклад посвящен обсуждению современных тенденций при работе с данными, а также условий получения синергетического эффекта при развертывании системы управления качеством данных. Разбираются основные проблемы с данными для новых решений. Кроме этого подробно анализируются вопросы создания корпоративного Data Lakehouse; реальные наборы метрик качества; компоненты системы управления качеством данных и платформы, адекватные задаче обеспечения качества данных.
Вернуться к докладчикам
Алексей Арустамов,Loginom Company
Окончил Самаркандский государственный университет им. Алишера Навои. Более 30 лет опыта работы в ИТ-индустрии – анализ данных и продвинутая аналитика. Принимал участие в полусотни проектах для таких компаний, как: Росбанк, МигКредит, Philip Morris, Инвитро, ERG, Интер РАО, МТС, РЖД, Шоколадница и др. Сооснователь компании Loginom Company, специализирующейся на разработке и внедрении систем продвинутой аналитики: кредитный конвейер, кредитный скоринг, прогнозирование спроса, оптимизация бизнес-процессов и пр. Сейчас – директор Loginom Company.
Как встроить ИИ в конвейер очистки НСИ
Большие языковые модели сегодня на пике хайпа, однако реальную пользу бизнесу они принесут, лишь став частью автоматизированных корпоративных бизнес-процессов, однако недостаточно просто переписываться в чате с уточнениями – требуется встраивание модели в системы принятия решений и аналитической обработки. Все это требует интеграции с существующими информационными системами; качественной подготовки и предварительной обработки данных; обеспечения автоматического обращения к LLM-моделям; организации тщательной проверки на соответствие бизнес-правилам; обеспечения надежности и отказоустойчивости решения; контроля безопасности. Это далеко не полный список операций, которые должен обеспечить пользователь. Решение Low-Code позволяет упростить применение языковых моделей, однако возникает вопрос: как эффективно интегрировать Low-Code с LLM-моделями для создания действительно полезных решений? Доклад посвящен ответу на этот вопрос на примере разбора проекта очистки и стандартизации нормативно-справочной информации (НСИ), результатом которого стала корректная стандартизация более 80% базы НСИ. Особое внимание уделено анализу преимуществ, полученных от использования LLM-моделей для стандартизации НСИ, благодаря встраиванию нейросети в конвейер автоматизированной обработки, интегрированный непосредственно в бизнес-процессы компании.
Вернуться к докладчикам
Максим Зацепин,БФТ-Холдинг
Более 25 лет опыта работы в ИТ-индустрии. Сейчас – директор департамента систем управления данными, БФТ-Холдинг, где отвечает за развитие направления по управлению мастер-данными, владелец продукта MDM-решения «БФТ.ЕНСИ».
MDM как инструмент обеспечения качества данных
Качество данных имеет важнейшее значение для построения эффективного бизнеса, играя ключевую роль в принятии обоснованных решений и оптимизации процессов. Master Data Management (MDM) – комплексный подход к управлению основными данными, обеспечивающий контроль и повышение качества данных, их целостность и точность, а также согласованность на всех уровнях. Как MDM помогает выявить и устранить проблемы с качеством данных? Какие технологии, включая интеграцию, очистку и обогащение данных, формируют основу для эффективного использования систем MDM? Как синергия MDM и инструментов бизнес-аналитики обеспечивает поддержку принятия различных решений и управления, основанного на данных? Доклад посвящен ответам на эти и другие вопросы. Особое внимание уделено анализу примеров внедрения систем MDM и его влияния на бизнес-процессы.
Вернуться к докладчикам
Кирилл Евдокимов,«Дата Сапиенс»
Окончил ВМК МГУ. Более 20 лет опыта работы в сфере управления данными и аналитики: создание хранилищ данных, развертывание MDM- и BI-решений для крупных российских банков, страховых и розничных компаний; работал в финансовом секторе – руководил проектами по внедрению и развитию аналитических систем (Campaign Management, AML, OpRisk, DWH, KYC); в Райффайзен Банке руководил отделом управления данными – отвечал за стратегию развития Data Governance, выстраивание и сопровождение процессов управления метаданными, обеспечение качества данных, работу с НСИ, а также за развитие корпоративного хранилища данных, инструментария self-service для бизнес-аналитиков и проверку гипотез Data Science. Сейчас – директор практики Data Governance в ГК ГлоуБайт, отвечает за проекты разработки стратегии развития управления данными и внедрения решений для автоматизации процессов, эксперт-консультант и визионер развития линейки продуктов для управления данными Data Governance Enterprise Metadata Management и Data Quality Management.
Каталог данных и управление качеством данных: 1+1=3
Управление качеством данных – это комплексный и системный процесс, включающий ведение проверок и их классификацию, мониторинг и анализ причин идентифицированных проблем, составление и контроль SLA, формирование дата-контрактов и многое другое. Типовые инструменты управления качеством данных часто не обеспечивают полного покрытия всех подобных процессов. Может ли в этом помочь решение для управления метаданными? Доклад посвящен ответу на этот вопрос. Особое внимание уделено обсуждению способов устранения разрывов и пробелов в процессах управления качеством с помощью решения по управлению метаданными. Кроме этого разбирается важность бесшовной интеграции и обеспечение гибкости соответствующих инструментов.
Вернуться к докладчикам
Александр Тарасов,Юникон
Закончил Белгородский государственный технологический университет им. В.Г.Шухова. Более 20 лет опыта работы в сфере управления ИТ-проектами, управления инновационной деятельностью и управления данными (в том числе Data Governance): БДО Юникон – старший директор по развитию бизнеса компании; МРСК Центр – начальник департамента ИТ. Руководил проектами SAP в ряде организаций. Сейчас – старший директор в компании Юникон.
Управление качеством данных - первостепенная задача при переходе на композитную архитектуру
Вернуться к докладчикам
Алексей Пятов,VK Cloud
Окончил Дальневосточный федеральный университет. Более 20 опыта работы в сфере прикладного анализа данных и автоматизации бизнес-процессов: SAS Россия/СНГ – продвижение аналитических решений для организаций государственного сектора в России и странах ближнего зарубежья, разработка решений текстовой аналитики, практика управления данными; IBS – директор по продажам бизнес-консалтинга. Преподаватель НИУ ВШЭ, МГИМО и Школы управления «Сколково». Сейчас – директор центра бизнес-решений, компания VK Cloud.
Роль бизнеса в управлении качеством данных: что изменилось за три года?
Как с 2022 года изменились зрелость и степень участия бизнес-подразделений в процессах управления данными в целом и их качеством, в частности? Доклад посвящен ответу на этот вопрос. Особое внимание уделено разбору препятствий на пути вовлечения бизнеса в процессы контроля за качеством данных, а также обсуждению мер, призванных преодолеть подобные барьеры. В первую очередь речь идет не о технических инструментах, а об организационных и архитектурных решениях, помогающих донести ценность управления данными до функциональных подразделений и их руководителей с целью облегчения их участия в процессах управления качеством данных.
Вернуться к докладчикам
Александр Белов,НЛМК
Окончил МГУ им. М.В.Ломоносова. Более 15 лет опыта работы в ИТ-индустрии: Сбер, «Роснефть». Имеет сертификацию CDMP (Certified Data Management Professional) DAMA Interntional, специалист в области управления данными и корпоративной архитектуры. Сейчас – корпоративный архитектор, лидер направления качества данных, НЛМК.
Децентрализованный подход к качеству данных
Любые успешные бизнес-инициативы начинаются с надежных качественных данных – сегодня буквально жизненно важно сделать правильный выбор в отношении стратегической модели управления качеством в масштабах всего предприятия. Компании всех отраслей – от крупнейших транснациональных корпораций до МСП – ищут новые формулы обеспечения бесперебойности поставок и устойчивости производственных процессов, опираясь на точные, качественные данные. Доклад посвящен обсуждению предпосылок выбора децентрализованной модели управления данными, разбору преимуществ и недостатков децентрализованного и централизованного подхода к контролю качества данных, а также разбору особенностей назначения ролей в процессах обеспечения качества данных. Особое внимание уделено анализу практики митигации недостатков децентрализованного подхода.
Вернуться к докладчикам
Евгений Виноградов,ЮMoney
Окончил СПбГУ, к.физ.-мат.н. Почти 30 лет опыта работы в ИТ-индустрии. Сейчас – директор департамента аналитических решений в компании «ЮMoney», отвечая за продукты создания и поддержки классических хранилищ и озер данных, антифрод-решения, а также развитие MLOps и проекты в области машинного обучения.
Как собрать свою систему контроля качества данных
Вернуться к докладчикам
Евгений Обелов,«Гармония MDM»
Окончил магистратуру РГУ нефти и газа (НИУ) им. И.М.Губкина по специальности «Автоматика и вычислительная техника». Более 20 лет опыта работы в ИТ-индустрии, начав карьеру с автоматизации центрального производственно-диспетчерского управления «Газпром». Реализовал проекты управления мастер-данными в таких компаниях, как: «Газэнергосеть», СКБ Контур, Food Union, «Транзас», «Инфинитум», СТТ, «Сибур», Мостра-Групп, «Данон», НЛМК и ТМК. Сейчас – технический директор, «Гармония MDM».
Антон Коваленко,Arenadata
Окончил Астраханский государственный технический университет по специальности «инженер связи» и MBA Московской международной высшей школы бизнеса (МИРБИС). Основные специализации: телеком, мобильные и фиксированные сети связи, разработка заказного ПО, продукты и технологии Big Data, продажи ИТ-решений и продуктов, продуктовый маркетинг. Сейчас – руководитель отдела продуктового маркетинга, Arenadata.
Эффективное управление данными в производственных компаниях
Усиление конкуренции в сфере продаж товаров повседневного спроса (FMCG) и особенно в формате онлайн-торговли, приводит к тому, что эффективное управление данными и обеспечение их качества становится критически важным как для выполнения проектов цифровой трансформации, так и для оперативного реагирования на изменения бизнес-среды. Доклад посвящен обсуждению сценариев управления мастер-данными, интеграции систем MDM и каталогов данных, их влиянии на качество data-ландшафта, а также особенностей применения платформы Arenadata для решения задачи повышения качества данных. Особое внимание уделено демонстрации преимуществ эффективного управления мастер-данными, позволяющего снизить число ошибок, вызванных дублированием, некорректным вводом и пр., оказывающих непосредственное влияние на эффективность работы предприятия.
Вернуться к докладчикам
Ирина Кирилина,«Интерфакс»
Более 10 лет опыта работы в ИТ-индустрии – разработка решений цифровой трансформации предприятий на основе продуктового подхода. Эксперт в сфере контроля и выявления рисков закупочной деятельности. Сейчас – директор направления интеграционных решений сервиса информационной и аналитической поддержки торговой и закупочной деятельности «МАРКЕР», «Интерфакс».
Виктор Поляков,«Интерфакс»
Окончил Московский государственный университет приборостроения и информатики (МГУПИ), факультет информатики. Почти 15 лет опыта работы в ИТ-индустрии. Прошел путь от младшего разработчика до архитектора, принимал участие в проектировании и разработке различных систем: ERP, «облачные» кассы, IoT, системы бизнес-аналитики. Сейчас – руководитель отдела разработки сервиса информационной и аналитической поддержки торговой и закупочной деятельности «МАРКЕР», «Интерфакс».
Чистота данных – залог качественного анализа объектов и субъектов товарных рынков
Множество источников данных, дублирование разной степени детализации, разнообразная терминология, отсутствие отраслевых знаний у технических специалистов, занятых агрегацией – все эти факторы приводят к появлению некачественной статистики и ошибкам в аналитике. Доклад посвящен проблеме влияния качества данных сферы электронных закупок на качество принимаемых решений. Разбираются ключевые этапы обработки данных в сфере электронных закупок, призванные обеспечить достоверный и точный анализ товарных рынков и деятельности присутствующих на нем компаний. Особое внимание уделено принципам выбора источников, сбору и очистке, нормализации и структурированию, а также агрегированию данных. Обозначены пути решения проблем дублирования, неполноты и изменения данных во внешних источниках.