В Москве прошла седьмая Всероссийская конференция «Качество данных», участники которой отметили рост интереса к вопросам создания, развертывания и эксплуатации конвейера обеспечения гарантированного качества данных. Что и не удивительно — любая цифровая инициатива сегодня теряет свой смысл без качественных данных, поэтому важен правильный выбор вектора инвестирования в конвейер управления качеством данных, интегрированный во все корпоративные бизнес-процессы.
.jpg)
Главной темой стратегической сессии конференции «Качество данных 2026» стала взаимосвязь между качеством данных и качеством бизнес-процессов. Сессии, посвященные бизнес-практикам, были сконцентрированы на формировании в организациях экосистем обеспечения качества данных и их встраивании в бизнес-процессы. В ходе технологических сессий обсуждались вопросы обеспечения достоверности, безопасности и актуальности данных, а также подходы к встраиванию российских решений в имеющиеся у компаний инфраструктуры данных.
Обычно важность качества данных признают все, но на практике контроль качества зачастую достигается «тушением пожаров». А пожары в данных в конечном итоге тушатся деньгами.
«Долго многие компании не понимали, что разработанные информационные системы вторичны, а первичны именно данные. Но сейчас происходят радикальные изменения — вопросы качества данных начинают обсуждаться уже при проектировании решений, формируя подход DQ by design», — отметил Владимир Анисимов, независимый эксперт. Владимир Кресюн, CIO TanukiFamily, проанализировал типичный путь компании от споров о «правильных цифрах» до формирования культуры доверия и управляемости данными. «Симптомы “созревания” компании для борьбы за качество данных: появление в Excel в качестве суррогата BI-системы, неоднозначность расчетов, потеря взаимопонимания и бесконечные совещания. В этом случае продвинуть бизнесу идею DQ уже несложно, используя в качестве аргументов фактор времени, затраты на выявление истинных бизнес-показателей и техподдержку систем, связанных с качеством данных. Все это имеет осязаемое финансовое выражение», — отметил Кресюн. Однако высокий уровень автоматизации не гарантирует высокого качества данных, считает Ирина Долженко, главный эксперт департамента информатизации РЖД и руководитель проектов по управлению данными.
Екатерина Моисеева, руководитель направления качества данных T2, рассказала, как перейти от ручного управления качеством данных к автономной системе DQ. Работа по созданию такого решения шла уже давно, но прорывом стала автоматизация процессов с помощью роботов. Были решены три ключевых задачи: отловить ошибку, исправить и оповестить пользователей. Созданное решение охватило весь жизненный цикл ошибки в данных и превратилось в инструмент self-service для бизнеса, который сегодня в ежедневной работе применяют все пользователи.
Алексей Шокуров, руководитель направлений Data Governance и Data Quality, «Сибур», рассказал о внедрении контрольной среды управления качеством данных, потребовавшей определить реальных потребителей данных. Именно они, в отличие от владельцев данных, могут подсчитать реальные потери от невыполненной работы. Далее потребовалось определить требуемый набор сервисов и порядок внедрения, а также «приземлить» их в существующие процессы. «Мы сталкиваемся с вечными компромиссами: скорость и гибкость против качества и контроля», — констатировал Александр Мамонтов, CDO «АстраЗенека». Данные в компаниях могут представлять четыре различных мира, живущих параллельно: электронные таблицы, BI-системы, хранилища и озера данных. По мнению Мамонтова, дата-офис должен выстроить мосты между этими мирами, позволяя им сосуществовать и развиваться: «Наш подход — экосистема вместо контроля. Мы отказались от тотального контроля сверху и строим экосистему качества данных, включающую инструменты, процессы и роли, где каждый элемент усиливает все другие». С ним согласен и Максим Буянов, руководитель направления цифровизации технологических и бизнес-процессов Светогорского ЦБК: «Мы не контролеры, а фасилитаторы, ведь качество данных — это кросс-функциональный процесс. Мы создали свод правил, позволяющих обеспечить качество данных». Ключевым принципом стало определение явных правил в виде DQLA (data quality level agreement) для ключевых источников, включая точность, полноту, формат данных и сроки их предоставления. Именно это превратило хаос в договоренность и позволило существенно повысить эффективность бизнеса.