Всё о стратегиях, архитектурах и практике работы
с данными в эпоху перемен

Форум «Управление данными 2022»

Единственный в России форум, ежегодно собирающий на одной площадке всех, кто определяет стратегию работы с данными и воплощает ее в жизнь, создает уникальные технологии и управляет предприятиями
на основе данных.

ДМИТРИЙ ВОЛКОВ
программный директор
«За семь лет форум стал ведущей в стране трибуной для выступления профессионалов по управлению данными. Представители федеральных ведомств, ведущих компаний из различных отраслей делятся здесь секретами развертывания и эксплуатации надежного конвейера данных, способного обеспечить адаптацию и устойчивое развитие даже в условиях чрезвычайных изменений. Отечественная индустрия данных в столкновении с беспрецедентными вызовами доказывает свою технологическую независимость и зрелость. Форум сегодня – незаменимая площадка для обмена свежими идеями и прошедшим проверку кризисом опытом извлечения ценности из корпоративных данных.»
Ключевые темы:
> Организация устойчивой системы управления данными
> Внедрение института владения данными
> Культура работы с данными
> Консолидация, устранение дублирования
и неопределенностей в работе с данными

> Создание единой среды аналитики данных
из множества различных источников
> Организация самостоятельной работы бизнес-пользователей с достоверными данными
> Выбор платформы для работы с данными
> Типичные ошибки управления данными
В программе:
Стратегии
  • Единая корпоративная модель данных и промышленные стандарты управления данными
  • Построение процессов управления монетизацией данных
  • Управление метаданными и данными в материально-техническом обеспечении
  • Культура: распределение ролей и определение владельцев данных
  • Обеспечение качества данных
  • Демократизация данных
Архитектуры
  • Архитектурный ландшафт для корпоративной модели данных и управления метаданными
  • Среда интеграция разнообразных данных («озеро», хранилище, фабрика данных, MDM, data hub, витрины)
  • Шаблоны управления качеством данных
  • Экосистема управления данными
  • Непрерывный мониторинг, аудит, контроль качества данных и управление инцидентами
  • Интеллектуальные технологии анализа данных (бизнес-аналитика, исследование данных, прогнозирование, визуализация и дополненная аналитика)
Инструменты
  • Средства построения витрин данных (SQL, NoSQL, NewSQL, In-Memory, графовые СУБД и др.)
  • Инструменты сбора, хранения, обработки данных, платформы бизнес-аналитики
  • Коммерческие и открытые платформы управления данными
  • Инструменты интеграции данных и управления мастер-данными (Informatica, Юнидата и др.)
  • Управление качеством данных (Ataccama, Informatica, Юнидата, и др.)
  • Работа с метаданными, Data Governance (Ataccama, Informatica, Юнидата, и др.)
Практики
  • Опыт управления метаданными, данными материально-технического обеспечения, НСИ
  • Учет информационных ресурсов и аналитических моделей
  • Инвентаризация данных, обработка документов, построение онтологий
  • Ошибки и проблемы при построении системы управления данными
  • Новые бизнес-модели на основе данных
  • Отраслевой опыт: промышленность, ТЭК, финансы, ретейл, транспорт, телеком, государственное управление, 10+ отраслей
Форум для:
Генеральных директоров, директоров по развитию
Директоров по данным (CDO), ИТ-директоров
Руководителей функциональных
подразделений и направлений
Управляющих директоров, менеджеров проектов
Архитекторов-аналитиков, специалистов по данным
Руководителей подразделений и ведущих специалистов
Спикеры

«Балтика»
Анализ данных электронных медицинских карт

«К-Скай»

«М.Видео»

«ВсеИнструменты.ру»
Мастер-класс:
Проблемы и ошибки при реализации процессов управления данными
Вернуться
к докладчикам
Владимир Анисимов, «Интер РАО - Онлайн»
Окончил Московский Индустриальный университет по специальностям Физика и Экономика и Управление на предприятиях машиностроения. Почти 15 лет опыта работы в энергетике: АО «Мосэнергосбыт» – CDTO; «Интер РАО» – внедрение систем бизнес-аналитики в контуре группы, системы автоматизированного сбора задолженности с использованием машинного обучения, внедрение RPA-технологий в бизнес процессы юридического блока, внедрение механизмов нормализации данных. Сейчас – директор по данным ООО «Интер РАО - Онлайн».


.
Вернуться
к докладчикам
Дмитрий Шведов, «УралХим»
Окончил Вятский государственный университет, более 20 леи опыта работы в ИТ-индустрии. Прошел путь от системного администратора в администрации города Кирово-Чепецка до главного корпоративного архитектора группы компаний «УралХим». Сейчас — заместитель руководителя департамента цифровизации в «ОХК «УралХим» отвечает за развитие информационных сервисов аналитических показателей и прогнозов.
Платформа экосистемы работы с данными

В любой производственной структуре имеются специалисты, непрерывно анализирующие информацию, ежедневно предоставляющие актуальные сведения по продукции, маржинальности и расходам, а также готовящие финансовые сводки по проектам и ключевым финансовым показателям. Рано или поздно, особенно если бизнес активно развивается, да еще в условиях динамичного рынка экономики турбулентности, может резко увеличиться число запросов на аналитические сервисы, необходимые для оперативного принятия управленческих решений. Для минимизации участия человека в процессе обработки данных, сокращения времени на коммуникации, требуемого для процесса «вопрос — обработка — ответ» и своевременного предоставления по запросу необходимой информации необходима платформа данных и глубокой аналитики. Доклад посвящен обсуждению опыта применения платформы данных УралХим, предоставляющей сотрудникам компании данные из корпоративного хранилища. Особое внимание уделено особенностям создания новых цифровых сервисов: моделей, наборов данных для прогнозной аналитики, а также цифровых двойников оборудования.
Вернуться
к докладчикам
Петр Подымов, «Леруа Мерлен»
Окончил МГТУ им. Н.Э. Баумана. Около 20 лет профильного опыта в банковской сфере и розничной торговле, включая стратегический консалтинг, руководство бизнес-трансформацией и цифровизацией в роли CDTO, а также разработку архитектуры организационных изменений с внедрением agile-моделей в «Леруа Мерлен» и Сбере. Участник инициатив Data Governance в крупнейших компаниях, эксперт по структурным инвестициям в цифровизацию, аккредитованный тренер и автор курсов в международной академии AlphaZetta. Сейчас – архитектор предприятия в команде стратегии, «Леруа Мерлен».
Управление данными в условиях непрерывных изменений

Динамика потребительских предпочтений, глобальные кризисы, подобные санитарному, а также последствия решений регуляторов оказывают сильное воздействие на бизнес компаний розничной торговли. Главным фактором не только устойчивого роста, но и выживания в условиях неопределенности становится для таких компаний их готовность к оперативному реагированию на изменения, возможность принятия объективных решений на основе анализа данных, предложение продуктов и услуг, предвосхищающих индивидуальные запросы потребителей. Доклад посвящен обсуждению особенностей трансформации бизнеса в контексте непрерывных изменений среды его существования. Особое внимание уделено изложению принципов управления данными в компаниях розничной торговли, их применению в новых условиях и трансформации взглядов всех участников экосистемы ретейла, а также специфике взаимодействия внутри международной группы компаний.
Вернуться
к докладчикам
Ринат Абдурахманов, «Билайн»
Окончил РГУ Нефти и Газа им. И.М. Губкина, факультет «Автоматика и вычислительная техника». Около десяти лет в ИТ-индустрии – процессы управления данными, создание систем хранения и обработки данных: «Сибур» – старший эксперт по управлению данными; Accenture – консультант по хранилищам данных на проектах для «Росбанка» и «Альфа-банка». Сейчас – руководитель департамента Data Governance «Билайн».
Data Mesh в телекоме

Любая телекоммуникационная компания собирает и обрабатывает огромное количество данных, стараясь извлечь из них максимальную ценность, используя, в частности «озера данных». Вместе с тем, в классическом подходе к работе с Data Lake имеются принципиальные ограничения при централизованном развитии хранилища – чем больше интегрированных систем и данных, тем больше требуется ресурсов на их поддержку и развитие, а значит, возникает больше кросс-зависимостей, что означает лавинообразный рост ответственности для определенных групп сотрудников компании. В итоге, например команда работы с Data Lake, становится бутылочным горлышком процесса доставки данных от источников к потребителям. Решение – распределенная структура управления данными (Data Mesh), позволяющая разделить ответственность: владение данными (генерация, описание, контроль качества, публикация) сосредоточено в бизнес-функциях, а CDO выступает в роли провайдера инструментария хранения, обработки данных, а также методологии управления ими. Доклад посвящен обсуждению опыта развертывания и эксплуатации Data Mesh в компании «Билайн». Особое внимание уделено процессам Data Governance, обеспечивающим взаимодействие между узлами распределенной структуры: внедрение каталога данных, определение ландшафта данных, роли владельца данных, общие политики для всех узлов.
Вернуться
к докладчикам
Александр Соловьев, Росакредитация
Окончил факультет прикладной математики и кибернетики Национального исследовательского Томского государственного университета по специальности «Математические методы в экономике», кандидат физ.-мат. наук. Почти15 лет опыта работы в ИТ-индустрии: Томский государственный университет – заведующий учебной лабораторией информационных технологий и автоматизации учебного процесса; страховая медицинская организация «МАКС-М» – начальник отдела материального и информационно-технического обеспечения, заместитель директора филиала; Департамент экономики Администрации Томской области – председатель комитета сводной работы и мониторинга целевых показателей, заместитель начальника. Сейчас – заместитель руководителя Федеральной службы по аккредитации.
Сервис доступа к государственным данным

Сегодня все больше покупок совершается в Сети – объем Интернет-торговли вырос в 2020 году на 60%, причем основной рост приходится на товарные группы подлежащие обязательной сертификации и декларированию: бытовая техника, одежда и обувь. При приобретении товаров в офлайн покупатель всегда может потребовать сертификат или декларацию у продавца, а для предоставления такой возможности при онлайн-покупках Федеральная служба по аккредитации совместно с бизнесом реализует сервис доступа к документам, подтверждающим безопасность товара, к сведениям о производителе и месте изготовления. Вся эта информация содержится в базах Росаккредитации. Доклад посвящен обсуждению архитектуры сервиса обмена данными между Федеральной службой по аккредитации и бизнесом электронной коммерции. Интернет-магазины смогут получать актуальные данные о документах, подтверждающих соответствие и публиковать ссылки на них в карточке товаров. Особое внимание в докладе уделено возможностям борьбы с контрафактом и способам повышения доверия потребителей к товарам добросовестных продавцов.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта работы в сфере создания систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, эксплуатируемых сегодня на крупных отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий». Сейчас – директор компании «ТриниДата», специализирующейся на реализации проектов создания ИТ-архитектур, интеграции и анализа данных, управления корпоративными знаниями.

Артем Ходяев, «Газпром недра»

Почти 20 лет опыта работы в сфере проектирования и разработки прикладных информационных систем разведки и добычи углеводородов. Автор ряда концептуальных моделей данных для хранения и обработки информации в секторе Upstream. Один из участников создания информационной системы автоматизации деятельности Центра хранения сейсмической информации «НК «Роснефть». Непосредственный участник разработки Концепции единого информационного пространства обращения геолого-геофизической и промысловой информации ПАО «Газпром». Сейчас – зам. начальника Службы информационно-управляющих систем и связи "Газпром недра".
Дата-центрическая архитектура как основа быстрой доставки аналитических данных

Любой корпоративный ИТ-ландшафт образован множеством приложений, имеющих собственные базы данных, содержащие информационные объекты, отражающие бизнес-объекты, события и фазы бизнес-процессов. Как правило, многие объекты бизнес-процессов «отражаются» одновременно в нескольких базах, например, единица оборудования промышленного предприятия описана с разных точек зрения в системах бухучета, управления ремонтами и обслуживанием, управления производством и др.
Для того, чтобы приложения автоматизации различных бизнес-процессов работали вместе, их необходимо интегрировать с помощью решений классов MDM и ESB, однако такая интеграция поглощает ресурсы и редко полностью удовлетворяет потребности бизнеса. Дата-центрическая архитектура позволяет избавиться от всех интеграционных проблем, сделав данные, а не бизнес-приложения центральным элементом корпоративной ИТ-архитектуры. Доклад посвящен обсуждению особенностей реализации такой архитектуры на практике, позволяющей избежать неверных управленческих решений при выборе путей развития корпоративной ИТ-архитектуры, открыть путь к быстрому выполнению запросов бизнеса на создание новых приложений, аналитических представлений и отчетов. Особое внимание уделено анализу инструментов, позволяющих обеспечить непротиворечивость, актуальность и точность корпоративных данных, использовать одни и те же данные для решения разных бизнес-задач.
Вернуться
к докладчикам
Ирина Голощапова, Head of Data Science,«Лента»
Окончила МГУ им. М.В. Ломоносова, к.э.н. Более 10 лет опыта работы в сфере анализа данных и продвинутой аналитики в различных прикладных областях: экономическая политика, финансовый сектор и количественная оценка рисков, ретейл, социально-значимые проекты: X5 Retail Group – количественная оценка рисков и оптимизация бизнес-процессов; Центр макроэкономического анализа и краткосрочного прогнозирования – макроэкономические исследования, статистический анализ и моделирование. Лидер команды Data Science в исследовательской группе Манчестерского Университета, а также лидер по исследованиям в проекте Big Data Indicators оценки высокочастотных индикаторов экономических ожиданий населения на основе больших данных. Сейчас – руководитель отдела Data Science компании «Лента».
В поисках сокровищ в данных: эффективное управление data science

Цифровая трансформация обещает своим последователям несметные горы сокровищ, скрытых в сырых корпоративных данных. Однако ожидания не совпадают с реальностью – около 95% подобных проектов неэффективны, либо не доходят до завершения. На практике большинство проектов — попытка найти сокровища в темной комнате, которая далеко не всегда заканчивается успехом. Гораздо чаще комната оказывается бесконечной или пустой, а иногда сокровища, которые были очень близки, – фальшивыми. Доклад посвящен особенностям организации управления экспертизой Data Science так, чтобы в проектах цифровой трансформации идти только к тем сокровищам, которые стоят внимания и принесут деньги – в комнате с ярко включенным светом.
Вернуться
к докладчикам
Станислав Лазуков, «Ростелеком»
Окончил кафедру экономической кибернетики Пермского государственного университета. Почти 20 лет опыта работы в ИТ-индустрии: построение аналитических решений в банковском секторе (риски, обязательная и управленческая отчетность и др.) на базе платформы бизнес-аналитики Prognoz Platform, руководство направлением систем банковской бизнес-аналитики, контроль реализации ключевых проектов в интересах Департамента финансов и территориальных подразделений Сбербанка (создание аналитических витрин центра хранения данных, формирование управленческой отчетности MIS, реализация системы ключевых показателей эффективности и пр.). Сейчас – директор направления в ПАО «Ростелеком», где отвечает за вывод на коммерческий рынок и продвижение инструментов для работы с большими данными в составе корпоративной платформы управления данными «Ростелеком Бизнес».
Как разглядеть «айсберг» в озере данных

Термин «data-driven» – принятие стратегических решений на основе данных, прочно закрепился в лексиконе менеджеров, однако за простым, на первый взгляд, понятием прячется сложный вопрос выбора соответствующей системы: приобрести готовое решение от вендора, воспользоваться бесплатными наработками сообщества OpenSource или инвестировать в развитие собственной команды, создающей продукты управления данными под запросы компании? Доклад посвящен обзору российского рынка решений управления данными и обсуждению проблем, с которыми сталкиваются разработчики на пути самостоятельного овладения открытыми технологиями. Особое внимание уделено вопросам построения озера данных на базе открытых технологий, особенностям подхода к оценке внутренней стоимости проекта создания и внедрения платформы, а также разбору типичных ошибок и проблем оценки «глазами» менеджера сложной технической задачи, которая потенциально может оказаться «айсбергом» в озере данных.
Вернуться
к докладчикам
Сергей Иванов, «УралХим»
Окончил Финансовую Академию при правительстве РФ. Около 25 лет в ИТ-индустрии – управление корпоративной архитектурой предприятия и данными: ПАО Сбербанк, «Газпром нефть». Сейчас – руководитель Департамента корпоративных данных АО «ОХК «УралХим».
Как данные управляют компанией?

Мир быстро меняется – в условиях перехода экономической деятельности в онлайн и повышения роли проактивности экономические циклы сжимаются. Компании начинают прогнозировать ситуацию на рынке и поведение клиента, в надежде обеспечить принятие правильных управленческих решений и оперативно скорректировать свою стратегию. Данные и модели становятся единственным способом конвертации реальных участников, вещей и событий в цифровой мир. Считается, что чем больше у компании данных высокого качества, тем больше у нее шансов достигнуть успеха. Как следствие, многие компании сегодня собирают новые наборы данных, используют аналитику и технологии искусственного интеллекта, расширив использование как внутренних, так и внешних источников данных в реальном времени. Однако, далеко не в каждой компании сотрудники действительно используют имеющиеся данные в своей повседневной работе. Доклад посвящен обсуждению опыта создания и эксплуатации системы управления компанией на основе данных. Особое внимание уделено обсуждению архитектуры сбора и доставки в реальном времени данных, требуемых каждому сотруднику.
Вернуться
к докладчикам
Светлана Бова, ВТБ
Окончила Московский государственный педагогический университет им. В. И. Ленина. Более 20 лет опыта работы в финансовой индустрии, в сфере управления данными и аналитики: НПФ «Промрегионсвязь» – менеджер по продажам; «Газпромбанк» – сотрудник управления сопровождения операций юридических лиц, финансовый аналитик инвестиционного блока; ЗАО «Неофлекс Консалтинг» — заместитель директора департамента аналитики по направлению «Хранилища данных и аналитические приложения»; «Р-Стайл Софтлаб» – заместитель директора департамента аналитических систем; ПАО «Росбанк» – руководитель департамента аналитических систем. Сейчас — CDO, Управляющий директор – вице-президент, Департамент ИТ-архитектуры, «Банк ВТБ» (ПАО).
Карты потоков данных – примеры использования

Ландшафт любой финансовой организации федерального масштаба включает множество различных информационных систем, оперирующих огромными массивами данных: сотни тысяч таблиц, миллионы полей, разнообразные структуры, форматы и источники метаданных. Ориентироваться в таком пространстве сложно и чтобы найти нужный элемент данных требуется тратить массу времени на изучение документации и опросы сотрудников. Для работы в подобном ландшафте необходим специальный инструментарий по визуализации – DataLineage (карты потоков данных), позволяющий сотрудникам искать требуемую достоверную, непротиворечивую и актуальную информацию. Доклад посвящен обсуждению примеров использования в банке инструментария DataLineage, позволившего сократить затраты на анализ и разработку за счет облегчения поиска данных. Особое внимание уделено обсуждению особенностей формирования карт потоков данных в автоматическом режиме, что позволяет минимизировать затраты на рефакторинг ETL, снизить риски при регресс-тестировании и обеспечить прозрачность визуализации пути прохождения данных от момента их появления до конечного потребителя по цепочке ИТ-систем.
Вернуться
к докладчикам
Андрей Андриченко, «ЭсДиАй Солюшен»
Окончил Московский технологический институт (МТИ), к.т.н. в области САПР технологических процессов. Более 30 лет опыта работы в ИТ-индустрии: руководитель отдела САПР в НИИ авиационных технологий (НИАТ); руководитель технологического направления в компании «Аскон». Три поколения созданных за время работы САПР, используются сегодня на сотнях промышленных предприятий России. Руководил проектом по созданию отечественной MDM-системы («Сколково»). Сейчас – советник генерального директора АО «ЭсДиАй Солюшен», отвечая за продвижение MDM в крупных промышленных холдингах и корпорациях.
MDM: основа цифровой трансформации бизнеса и госуправления

Обозначение одного и того же информационного объекта в различных прикладных системах может отличаться, что приводит к дублированию мастер-данных и необходимости синхронизировать различные базы данных. Требуются справочники корпоративного уровня, созданные с учетом отраслевых, государственных и международных стандартов. Доклад посвящен проблеме создания и ведения таких справочников. Особое внимание уделено вопросам создания единой унифицированной терминологии для однозначного описания классов и идентификации характеристик продукции, для обеспечения возможности свободного обмена сведениями между различными информационными средами, работающими с корпоративными мастер-данными в различных контекстах.
Вернуться
к докладчикам
Александр Погосьян, Сбер
Окончил Военно-воздушную инженерную академию им. Н.Е.Жуковского. Более 20 лет опыта работы в ИТ-индустрии: начальник отдела аналитики в Департаменте собственных продуктов компании «Астерос»; менеджер проектов в компании Deloitte; операционный директор в нишевой консалтинговой компании. За время работы прошел путь от разработчика автоматизированных систем до руководителя, создав несколько подразделений «с нуля» и обеспечив их становление, а также выполнив множество проектов, в частности: внедрение MDM, создание объединенных центров обслуживания, внедрение ERP-систем в различных индустриях. Сейчас – исполнительный директор по направлению «Качество данных» в ПАО «Сбербанк».

Алексей Калинов, Сбер

Окончил Волжскую государственную академию водного транспорта. Более пяти лет опыта работы в сфере управления качеством данных, пройдя путь от специалиста до руководителя команды, создав команду разработки проверок качества данных и внедрив ряд инструментов контроля качества данных. Сейчас – руководитель направления, владелец продукта «Инструменты контроля качества данных» в ПАО «Сбербанк».
Стратегия и инструменты управления качеством данных

Обеспечения качества данных в крупных организациях стало сегодня критически важным для обеспечения успеха любой инициативы бизнеса, связанной с данными. На это влияет наличие регуляторных требований, активное развитие систем искусственного интеллекта и инструментов принятия решений, объемы внутренней и внешней отчетности. Стратегия обеспечения качества неразрывно связана с другими процессами управления данными. Также существенную роль играют инструменты обеспечения качества данных, их взаимосвязи с другими инструментами платформы управления данными. В условиях, когда объемы данных растут, а экспертиза по данным распределена по организации, возникает потребность в реализации инструментов самообслуживания и обеспечении соответствующих процессов. В докладе рассмотрены вопросы разработки и реализации стратегии управления качеством данных, предложены пути их решения и разобраны практические кейсы.
Вернуться
к докладчикам
Максим Озеров, Navicon
Окончил НИУ ВШЭ, Норвежскую школу экономики и Венский университет экономики и бизнеса. Более 10 лет опыта работы ИТ-индустрии. Ведет и курирует проекты внедрения и развития корпоративных платформ данных, помогает компаниям выстраивать культуру данных и получать ценность от накапливаемых знаний. Обладает опытом успешного выполнения проектов для крупных международных и отечественных компаний розничной торговли и фармацевтики. Сейчас – директор проектов по аналитике в компании Navicon.
MIS – информационная система для data-driven компаний

Корпоративные хранилища данных давно и успешно применяются как отечественными, так и зарубежными компаниями. На повестке дня сегодня вопрос – что таким компаниям надо сделать дальше, чтобы перейти от простого накопления данных к их использованию во всех аспектах бизнеса? Такой шаг – это построение системы Management Information System (MIS). Как MIS может стать платформой для развития культуры работы с данными в компании? Что нужно для реализации такой системы? Какие технические, организационные и методологические сложности могут возникнуть на этом пути и как их обойти? Доклад посвящен ответам на эти и другие вопросы.
Вернуться
к докладчикам
Юлия Барышева, АПУД
Ассоциация профессионалов управления данными (АПУД).
Управления данными в российских компаниях

Мир быстро меняется, и если раньше управление данными было уделом лишь технических специалистов, то теперь вовлекает широкие круги руководителей и линейных менеджеров, что, в свою очередь, вызывает потребность в формировании единого взгляда на профессиональные навыки, общую терминологию и согласованные подходы. Ассоциация профессионалов управления данными (АПУД) фокусируется на экспертах в обласи DQ\DG\DM и тех, кто стремится ими стать. В докладе приводятся результаты проведенных под эгидой АПУД открытых семинаров по темам Data Governance, отражающих текущую ситуацию с организацией управления данными в различных компаниях и организациях, работающих в России. России.
Вернуться
к докладчикам
Валерий Сохоров, Счетная палата РФ
Опыт проектирования и развертывания системы управления данными

В федеральных органах исполнительной власти России активно внедряются цифровые технологии, появляются новые источники и наборы данных. Сотни инспекторов Счетной палаты Российской Федерации уже сейчас используют данные из более 600 различных информационных систем сторонних организаций, и их количество постоянно растет. В этих условиях Счетная палата нуждается в комплексной системе управления данными. В докладе раскрыт опыт, который получил Департамент цифровой трансформации Счетной палаты в ходе внедрения такой системы: как и из кого сформирована единая команда по работе с данными, как организованы процессы работы, какие технические инструменты применяются, как они интегрированы в системный ландшафт организации, как организована подготовка персонала.
Вернуться
к докладчикам
Сергей Шестаков, ГК «Luxms»
Окончил «Санкт-Петербургский политехнический университет Петра Великого», к.т.н. Около 30 лет опыта в ИТ-индустрии – системное администрирование и управление данными: «Промстройбанк»; «ВТБ». Руководил масштабными международными проектами по разработке прикладного программного обеспечения. Соавтор архитектуры ряда подсистем российской аналитической платформы Luxms BI; курировал проекты внедрения этой платформы в ПАО «Ростелеком», ОАО «Мегафон», Комитете по здравоохранению Правительстве СПб, НМИЦ им. В.А. Алмазова. Сейчас – генеральный директор ГК «Luxms».

Дмитрий Дорофеев, ГК «Luxms»

Окончил «Санкт-Петербургский политехнический университета Петра Великого». Более 25 лет опыта работы в ИТ-индустрии. Разработал систему анализа финансовых институтов на основе балансовых отчетов и нормативов Центрального банка, которая в дальнейшем использовалась для принятия решений по межбанковскому кредитованию. Автор кода аналитического ПО для платформы Luxms BI. Имеет опыт развертывания аналитических решений на многоузловых конфигурациях, включая кластеры ClickHouse, Greenplum и PostgreSQL. Сейчас – главный конструктор ГК «Luxms».
Высокоскоростной инструмент подготовки аналитических витрин

Задача аналитики на больших данных, поступающих из множества внешних и внутренних источников, обладающих различными структурами и схемами индексации, усложняется необходимостью визуализировать их в реальном времени для тысяч одновременно работающих пользователей. В результате, как показывает практика, для многих крупных инсталляциях систем бизнес-аналитики наблюдается резкое снижение быстродействия. Одним из решений может быть многоуровневая оптимизация: во-первых, оптимизация ETL-алгоритмов и создание горячего слоя хранения; во-вторых, оптимизация исполнения бизнес-логики за счет дата-центрической архитектуры сервера визуализации. Доклад посвящен обсуждению архитектуры и возможностей продукта Luxms Data Boring, позволяющего на реальных задачах в разы ускорить подготовку аналитических витрин по сравнению с традиционным способом – формирования витрин на стороне корпоративного хранилища и озера данных. Особое внимание уделено возможностям интеграции продукта с системами управления данными, в частности, использующими технологии искусственного интеллекта, на примере Informatica Data Catalog и библиотек AI/ML на примере Greenplum MADlib.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.

Александр Прохоров, Denodo

Около 30 лет опыта работы в ИТ-индустрии: начинал карьеру программистом в НИИВЦ МГУ, работал в крупных Российских системных интеграторах, а затем в представительствах компаний Veritas, Symantec, Informatica и Riverbed. Сейчас – директор по продажам Denodo в России.
Одна логическая платформа для всех данных

Концепция управления данными на логическом уровне без их физического сбора в единый репозиторий набирает сегодня популярность при построении Logical Data Fabric, Data Mesh, гибридных и мультиоблачных инфраструктур. Доклад посвящен обсуждению особенностей построения единой Логической платформы для управления всеми данными компании вне зависимости от их географического положения, применяемых технологий, производительности обработки и скорости доступа.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.

Иван Кириленков, Denodo

Технический директор компании Denodo.
Глобальная ролевая модель доступа к данным на базе логической фабрики данных

C ростом объемов и разнообразия типов источников данных все более актуальной становиться задача централизованного управления доступом. Применение технологии Виртуализации данных позволяет ограничивать параметры видимости отдельных наборов данных, строк и столбцов, применять алгоритмы динамического маскирования «на лету» в зависимости от пользовательских ролей и глобальных политик безопасности. В докладе обсуждаются принципы построения Глобальной ролевой модели доступа к данным на базе архитектуры Logical Data Fabric, а также анализируются результаты конкретных внедрений.
Вернуться
к докладчикам
Владислав Набоков, «Сбербанк страхование жизни»
Окончил Физико-технический факультет Санкт-Петербургского политехнического университета по специальности Техническая физика/Физика и техника полупроводников. Более 15 лет опыта работы в ИТ-индустрии – руководитель ИТ-блоков в страховых компаниях «Русский мир», «Росгосстрах», «Гута-Страхование» и «ВТБ Страхование жизни». Сейчас – директор по технологиям «Сбербанк страхование жизни».

Ольга Позднякова, HFLabs

Около 15 лет опыта работы в ИТ-индустрии. Сейчас – директор по страховым проектам HFLabs, где отвечает за направление работы со страховыми компаниями.
Зачем и как внедрять систему управления данными о клиентах

Активно растущие крупные компании непременно сталкиваются с проблемой достоверности данных о своих клиентах – в большой организации слишком много разнообразных источников данных, систем и сложных бизнес-процессов, что часто приводит к ошибкам, дублированию и устареванию сведений о клиентах. Доклад посвящен изложению опыта компании «Сбербанк страховании жизни» по созданию единой точки хранения клиентской информации, гарантирующей актуальность данных и отсутствие дублирования.
Вернуться
к докладчикам
Руслан Трачук, «Юнидата»
Окончил СПбПУ по специальности «Информационная безопасность». Более 20 лет опыта работы в сфере разработки ПО, например в компании «Рексофт» специализировался на создании продуктов по заказам западных клиентов рынка телекоммуникаций. Сейчас – технический директор в компании «Юнидата», где отвечает за разработка платформы управления данными и продуктов на ее основе.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Более 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Система очистки озера данных

Компании и предприятия все чаще отдают предпочтение озерам данных, а не классическим хранилищам. Однако, несмотря на кажущуюся простоту идеи и заманчивые перспективы, применяемые обычно для работы с озером технологии не снимают главного вопроса, возникающего при работе с данными – доверия к содержимому озера, на основе которого могут приниматься критически важные для бизнеса решения. Чрезвычайно важно уметь оценивать качество данных в озере. В докладе разбирается проблема обеспечения качества данных в озере и анализируются возможности соответствующих систем, использующих техники и инструменты поддержки качества данных, выходящие за пределы типичного набора и переводящие задачу очистки на уровень руководства данными.
Вернуться
к докладчикам
Юрий Буйлов, СберАвто
Окончил Военную академию воздушно-космической обороны им. Маршала Советского Союза Г.К. Жукова по специальности "Вычислительные машины комплексы системы и сети". Около 20 лет в ИТ-индустрии: разработка и интеграция архитектур распределенных высоконагруженных систем, руководство многофункциональными командами разработчиков, внедрение практик DevSecOps и подхода Data Driven: CarPrice – руководитель отдела разработки, «Яндекс» – руководитель группы монетизации, Auto.ru – руководитель команды разработчиков, imhonet.ru – бэкенд-разработчик. Сейчас – технический директор в компании СберАвто, где отвечает за стратегию технического развития, процессы и применение практик управления разработкой и данными.

Константин Ключников, СберАвто

Окончил МГУ им. М.В. Ломоносова, факультет Вычислительной Математики и Кибернетики, затем работал в Институте проблем управления им.В.А. Трапезникова, к.физ.-мат. наук по специальности "Системный анализ, управление и обработка информации". Начал карьеру в компании МегаФон, где прошел путь от маркетинг-аналитика до руководителя направления больших данных, затем работал в компании Вымпелком – руководитель клиентской аналитики. Затем продолжил карьеру в компании CarPrice, где запустил процессы построения моделей предиктивной аналитики, позволившей на 10% увеличить прибыль. Сейчас – CDO в компании СберАвто, где отвечает за стратегию формирования данных в централизованном источнике, включая корректность данных, их целостность и доступность. Ведет проекты Data Quality, Master Data Management и Meta Data Management. Отвечает за интеграцию данных с системами дочерних компаний банка, включая скоринговые модели и обогащение данных (Data Enrichment).
Референтные модели управления данными

Модели обучения призваны оптимизировать ресурсы компании для улучшения ее финансовых показателей, обнаружить важные инсайты, влияющие на бизнес и использовать их как дополнительные возможности для его роста. Референтными моделями могут быть нейросети, деревья решений и модели имитационного моделирования, позволяющие сфокусироваться на наиболее важных аспектах бизнеса и обеспечить его поступательный рост. Доклад посвящен обсуждению процессов и технологий управления жизненным циклом данных и обеспечения их качества. Особое внимание уделено анализу особенностей внедрения принципов демократизации и итеративности данных для обеспечения бизнесу непрерывных поставок продуктовой ценности.
Вернуться
к докладчикам
Варвара Макарьина, «Балтика»
Окончила РГУ нефти и газа (НИУ) имени И.М. Губкина. Работала в ЦОД Linxdatacenter, затем в ООО «Пивоваренная компания «Балтика». Восемь лет опыта в сфере бизнес-аналитики и формирования отчетности. Сейчас– менеджер по развитию аналитических систем отвечая за реализацию стратегии Data Governance, участие в развитии направлений Data Catalog & Data Quality, обучение сотрудников принципам управления данными и их практическому применению.
Каталог данных: предпосылки создания и реализация

Объем данных, ежедневно создаваемый и обрабатываемый современными предприятиями непрерывно растет, что делает необходимым выстраивание и реализацию стратегии Data Governance, позволяющую повышать доверие пользователей к данным, разрабатывать понятные ролевые модели распределения ответственности для получения уверенности в актуальности и полноте используемых данных. Для реализации такой стратегии в службе Supply Chain компании «Балтика» был создан Каталог данных (Data Catalog) – система, связывающая источники данных, их компоненты и метаданные; учитывающая специфику архитектуры информационной системы компании, а также позволяющая масштабировать решение на все функции компании и страны ее присутствия в составе группы Carlsberg Group. Доклад посвящен описанию Data Catalog, обсуждению возможностей, в том числе с точки зрения конечного бизнес-пользователя. Особое внимание уделяется преимуществам работы с использованием Data Catalog и особенностям реализации принципов управления данными: описание (наличие бизнес-глоссария) и владение (ролевая модель ответственности).
Вернуться
к докладчикам
Алевтина Тинас, Tele2
Окончила Липецкий государственный технический университет по специальности «Автоматизированные системы управления». Около 20 лет опыта работы в ИТ-индустрии, из них 12 лет в области управления данными: создание корпоративной аналитической системы в компании «Фольксваген Банк РУС»; развитие системы управления корпоративными данными компании СИБУР. Сейчас – руководитель департамента по управлению данными в компании Tele2, где отвечает за реализацию стратегии развития платформы данных, а также инструменты и процессы управления данными.

Маргарита Волкова, Tele2

Окончила НИУ ВШЭ, магистр экономики. Около 10 лет опыта работы в международной консалтинговой компании в области трансформации финансовой функции, где участвовала в различных проектах по внедрению ИТ-систем и кросс-функциональных процессов. Сейчас – менеджер по процессам управления данными в компании Tele2, где отвечает за развитие инструментов и процессов управления данными.
Как повысить грамотность работы с данными

Появление нового всегда пугало людей – доля новаторов и ранних последователей среди пользователей традиционно мала, несмотря на ускорение развития технологий и разговоры про массовую цифровизацию. Большинство пользователей – это позднее большинство, которое не торопится внедрять в свою практику новые методы работы с информацией. Компания может потратить много сил и ресурсов на внедрение новых технологий, но пользователи продолжат использовать привычные инструменты и саботировать предлагаемые изменения. Для того чтобы в компании сформировалась культура работы с данными (Data-driven) важна не столько технологическая трансформация, а изменение устоявшейся бизнес-модели с целью преодоления сопротивления «делаем, как всегда делали» и принятия культуры работы с данными. Как удовлетворить интересы всех пользователей? Как убедить сотрудников свернуть с протоптанной дорожки и повысить интерес к данным? Как стать «Data-driven», а не буксовать на месте? Доклад посвящен ответам на эти и другие вопросы, связанные с повышением грамотности в использовании данных (Data literacy) и формированием культуры работы с ними.
Вернуться
к докладчикам
Юрий Кротков, «Яндекс.Маркет»
Окончил Московский автомобильно-дорожный государственный технический. Почти 10 лет опыта управления проектами как со стороны заказчика, так и со стороны исполнителя. Пять лет опыта создания и развития внешних и внутренних ИТ-продуктов. Имеет опыт работы в фулфилмент-центрах, НИИ Почтовой Связи и нескольких стартапах. Сейчас – менеджер проектов в «Яндекс.Маркет», где отвечает за развитие корпоративной системы MDM и внедрение системы управления качеством данных.

Сергей Васильчиков, «Яндекс.Маркет»

Окончил Ковровскую государственную технологическую академию по специальности «Системы автоматизированного проектирования», кандидат технических наук. Более 20 лет опыта работы в ИТ-индустрии, 13 из них – в области управления данными. Участвовал в проектах по внедрению и созданию систем управления мастер-данными, Data Quality, Data Governance для компаний и предприятия нефтегазового сектора, финансовой индустрии, государственного сектора и ряда других. Возглавлял подразделение Data Management в компании SAS. Сейчас – руководитель проектов управления мастер-данным и качеством данных в компании «Яндекс.Маркет».
Управление качеством мастер-данных в электронной коммерции

В отличие от традиционной розничной торговли, где клиент может «потрогать руками» товар, на цифровых площадках электронной коммерции потенциальному покупателю доступен лишь цифровой двойник товара – для успеха бизнеса качество данных о товарах становится критически важным фактором. Доклад посвящен анализу опыта внедрения системы управления качеством данных в «Яндекс.Маркет», разбору особенностей задачи управления данных для торговых площадок и важности управления качеством данных. Особое внимание уделено проблемам перехода от реактивного к проактивному подходу решения задач управления качеством данных, анализу технологических особенностей системы управления качеством данных и планах «Яндекс.Маркет» по развитию решения организации работы с мастер-данными и процессов Data Governance.
Вернуться
к докладчикам
Иван Вахмянин, Visiology
Окончил МИФИ по специальности «Информационное обеспечение экономических процессов», аспирантуру Российской академии государственной службы при президенте РФ по специальности «Информационные технологии в управлении» и Московскую школу управления «Сколково». Почти 15 лет в опыта работы ИТ-индустрии – эксперт в сфере разработки ПО для анализа и визуализации данных. Сейчас – генеральный директор компании Visiology, где руководит созданием и развитием аналитической платформы бизнес-аналитики.
Роль методологии при внедрении управления на основе данных

Управление на основе данных (data-driven) – это уже не роскошь, а необходимость для организаций любого масштаба и отраслевой принадлежности. Однако, внедрение такого управления – сложный проект, затрагивающий все аспекты деятельности организации: управленческие практики, бизнес-процессы, технологии, оргструктуру и, конечно, культуру. Любой инициатор подобного проекта должен найти ответы на следующие вопросы: Как убедить основных стейкхолдеров поддержать проект по внедрению управления на основе данных? Как сделать первый шаг и быстро получить осязаемый результат? Как эффективно спланировать проект и минимизировать риски? Конечно, всегда можно попробовать реализовать такой проект "наудачу", а можно опереться на опыт уже выполненных проектов бизнес-аналитики, использовать имеющиеся практики и рекомендации, которые помогут сэкономить и время, и нервы. Доклад посвящен обсуждению методологии внедрения проектов бизнес-аналитики – неотъемлемой части управления на основе данных, разработанной на основе синтеза практического опыта, признанных мировых практик и методик. Основу методологии составляют: рекомендации, шаблоны документов, калькулятор экономической эффективности, карта технологий, примеры управленческих витрин и многое другое.
Вернуться
к докладчикам
«Объединённая двигателестроительная корпорация»
Секреты управления мастер-данными

Проблема создания и ведения справочников корпоративного уровня выходит далеко за рамки отдельных компаний и должна решаться с учетом отраслевых и государственных стандартов. Организация взаимодействия множества субподрядчиков, поставка и продвижение продукции на различных рынках невозможны без формирования единых принципов унификации описания информационных объектов на основе гармонизированных стандартов.
Организация мастер-данных данных может ориентироваться на методологию технических словарей – Open Technical Dictionary (OTD), разработанных с учетом специфики российской терминологии и в соответствии с методикой стандарта ГОСТ ИСО 22745 «Системы промышленной автоматизации и интеграция. Открытые технические словари и их применение к основным данным». Доклад посвящен анализу опыта применение единой унифицированной терминологии при управлении мастер-данными для однозначного описания классов, идентификации изделий и компонентов, независимо от информационных систем их описывающих.
Вернуться
к докладчикам
Яна Соколова, «Объединённая двигателестроительная корпорация»
Закончила Московский государственный технологический университет «Станкин» по специальности «Технология машиностроения», около 10 лет опыта работы в ИТ-индустрии. Специализируется на комплексных системах автоматизации технологической подготовки производства: САПР ТП, электронные заказы на проектирование и изготовления средств технического оснащения, электронные заявки на покупные средства технологического оснащения и др. Сейчас – руководитель проекта внедрения MDM-системы в АО «ОДК».
Совершенствование процессов управления нормативно-справочной информацией

Внедрение MDM на промышленном предприятии, а тем более в распределенном холдинге, – крупный проект, предусматривающий многоэтапное решение множества задач. Для АО «ОДК» такой проект начался с организации информационного обеспечения инженерных подразделений, что и было сделано. Далее функциональными заказчиками MDM-системы стали подразделения коммерческого контура – только после сведения НСИ из этих двух контуров в одной системе, компания стала получать эффект от проекта MDM: формирование качественной потребности в ТМЦ (товарно-материальные ценности) и оценки обеспеченности этой потребности и, как следствие, сокращение издержек на ТМЦ, а также снижение себестоимости продукции. Этап масштабирования системы – от внедрения MDM на одной производственной площадке проект распространился на все предприятия холдинга и его дочерних обществ. Сейчас в стадии реализации находится проект интеграции MDM-системы с информационными системами на уровне ГК «Ростех». Доклад посвящен анализу опыта эксплуатации системы MDM – формирование потребности/обеспеченности на основе централизованной нормативно-справочной информации.
Вернуться
к докладчикам
Роман Шемпель, IBM Russia
Почти 20 лет опыта работы в ИТ-индустрии: провайдеры телекоммуникационных услуг, поставщики специфичных для телекома решений, в частности, аналитических систем. Сейчас – эксперт по управлению данными в IBM Russia, где отвечает за работу с партнерами и решения по управлению данными.
DataOps – управление данными как процесс

Построение работы с данными в организации – это процесс, на разных стадиях которого решается множество задач, начиная от методологии до выбора инструментария и формирования культуры работы с данными. Решение каждой из таких задач требует ответов на множество вопросов. Как методология отражается на инструменте? Как из системы Data Governance получить пользу для конечных потребителей? Как управление данными влияет на конечный результат работы с данными для организации? Как организовать выбор инструментов для поддержки цикличного анализа данных – неотъемлемой части процесса управления корпоративными данными? Доклад посвящен ответам на эти и другие вопросы. Основное внимание уделено выбору инструментария, включающего в себя все необходимые элементы методологии DataOps.
Вернуться
к докладчикам
Анна Дудина, IDS Borjomi International
Окончила магистратуру Белгородского государственного технологического университета по направлению «Программное обеспечение интеллектуальных систем» и Summer school for CDO (by Caroline Carruthers and Peter Jackson, London). Почти 10 лет опыта работы в сфере управления мастер-данными в международных компаниях фармацевтического, агропромышленного секторов, а также корпораций, работающих на рынке товаров повседневного спроса. Сейчас – руководитель подразделения управления MDM (Global head of master-data management) в группе компаний IDS Borjomi International, отвечая за проектирование и реализацию систем наполнения справочников, а также за управление на уровне корпорации пулом функций управления данных.
Совет по управлению данными

По мере развития организации ее инициативы по управлению данными сталкиваются с ситуацией, когда имеется понимание ценности управления данными, налажена работа с метаданными, развернута система управления качеством данных и внедряется продвинутая аналитика, однако отсутствует единая стратегия развития на уровне группы компаний. На этом этапе требуется подумать о создании комитета по управлению данными. Так в IDS Borjomi International было принято решение о создании Совета, отвечающего за все процессы управления данными в корпорации: построение системы управления данными, сопровождение и развитие функций и доменов данных, в том числе и мастер-данных. Такой Совет может исполнять функции на всех доменах системы управления данными. В докладе рассмотрены функции Совета, анализируется опыт его работы и демонстрируется его интегрирующая роль в функционировании предприятия, управляемого данными. Особое внимание уделено обсуждению стратегической задачи Совета как управляющего органа, формирующего единый взгляд на развитие функции управления на всех уровнях руководства корпорации, включая и акционеров.
Вернуться
к докладчикам
Валерий Артемьев, Банк России
Окончил МГТУ им. Н.Э.Баумана, более 40 лет в ИТ-индустрии. Проходил стажировку по банковским системам (Великобритания) и повышал квалификацию по управлению данными в IBM (США, Германия). С 1993 года работает в Банке России, где планировал и руководил проектами по веб-приложениям, XML-форматам сбора отчетности, хранилищам данных и бизнес–аналитике, а также управлению метаданными. Разрабатывал архитектуру решений централи¬зованных прикладных систем, участвовал в создании систем блока банковского надзора: ЕИСПД для монито¬рин¬га и анализа деятельности кредитных организаций; АКС для анализа платежной информации. Сейчас работает в Центре управления данными, Департамент управления данными Банка России.
Технологии управления данными

Множеству функциональных секторов управления данными сегодня соответствует весьма внушительный технологический стек, поэтому в докладе дается обзор по укрупненным горизонтальным слоям:
  • анализ данных;
  • интеграция данных и интероперабельность;
  • управление качеством данных;
  • операции и хранение данных, документов и контента.
Рассмотрены также всеохватывающие вертикальные слои:
  • стратегическое управление данными (Data Governance);
  • управление метаданными;
  • информационная безопасность.
В докладе разбирается текущее состояние технологий управления данными и анализируются тенденции развития вовлеченных технологий, а также приводятся примеры конкретных инструментов и платформ.
Особо отмечается конвергенция технологий, затрудняющая их строгую классификацию и структуризацию.
.
Вернуться
к докладчикам
Полина Минеева, Accenture
Окончила НИУ «Высшая школа экономики». Около 10 лет опыта в ИТ-сфере, начав карьеру с проектов по внедрению систем бизнес-аналитики и созданию хранилищ данных для государственных институтов и коммерческих предприятий. Более пяти лет работает в ИТ-консалтинге, где принимала участие и руководила проектами по внедрению инструментов работы с данными и управлению НСИ, созданию стратегий данных, а также разработке ИТ-решений с использованием продвинутой аналитики. Сейчас – в Accenture Strategy & Consulting представляет практику Applied Intelligence в части предоставления услуг ретейлерам и производителям товаров повседневного спроса.
Управление данными: вчера, сегодня, завтра

Управление данными стало сегодня ключевым процессом даже для предприятий самых консервативных отраслей экономики. В период санитарного кризиса многие компании за несколько месяцев прошли путь, который продлился бы несколько лет – некоторые осуществили переход от традиционных хранилищ данных к гибким микросервисным архитектурам и облачным технологиям; заменили ручной мэппинг данных из унаследованных систем автоматизацией на базе интеллектуального управления данными (Intelligent Data Management). Компании перестали лишь собирать и агрегировать всевозможную информацию, а сосредоточились на рациональном потреблении данных. Доклад посвящен обсуждению комплексного подхода к изменению операционной модели и инструментария управления данными. Особое внимание уделяется ключевым факторам, которые оказывали влияние вчера, актуальны сегодня и будут завтра определять работу CDO.
Вернуться
к докладчикам
Нина Полянская, ЕВРАЗ
Окончила Государственный Университет по землеустройству, около 10 лет опыта в ИТ-индустрии: управление нормативно-справочной информацией и ее применение в области автоматизация процессов снабжения. ПАО «Роснефть»: руководитель группы, руководитель проектов, методолог – проект «Развитие корпоративного справочника материалов для процессов МТО на базе SAP», проект «Модификация корпоративного функционального классификатора для управленческой отчетности», проект «Создание и внедрение решения по управлению опросными листами и техническими требованиями для процессов МТО», целевой инновационный проект «Разработка системы типового проектирования Компании». Сейчас – главный менеджер Дирекции по снабжению компании ЕВРАЗ, где отвечает за направления развития НСИ и управление данными.
Единая платформа управления справочниками

Когда компании работают с разрозненными, не синхронизированными справочниками с данными низкого качества говорить о цифровизации не приходится. Ситуацию усугубляют высокие трудозатраты на обработку и поиск требуемых справочных сведений. Два года назад в ЕВРАЗ было принято решение о выполнении проектов внедрения единого справочника контрагентов и единого справочника ТМЦ. На базе продукта SAP MDG сегодня обеспечивается ведение Единого справочника сбытовой номенклатуры и Единого справочника контрагентов/грузополучателей. В перспективе планируется запуск в опытно-промышленную эксплуатацию Единого справочника товарно-материальных ценностей, а также развертывание централизованного каталога услуг. Доклад посвящен анализу опыта создания единого справочника контрагентов и единого справочника ТМЦ: предпосылки проекта, эффект от внедрения, проблемы и ошибки.
Вернуться
к докладчикам
Михаил Александров, «Полиматика»
Более 20-ти лет работы в ИТ-индустрии – из них больше половины в области аналитики: Tops Business Integrator, BearingPoint, Teradata, SAS. Отвечал за разработку и внедрение систем управления эффективностью, продвинутой аналитики, анализа и отчетности, а также инструментов интеграции, управления качеством данных и НСИ в интересах производственных и финансовых корпораций. Сейчас – технический директор по продукту Polymatica ML, российской платформы машинного обучения полного цикла.
Управление данными в эпоху машинного обучения

В большинстве компаний уже внедрены и успешно эксплуатируются классические процессы управления данными, ориентированные на поддержку формирования отчетности, расчет различных KPI и анализ данных с использованием инструментов бизнес-аналитики. Одновременно с этим все шире применяются модели машинного обучения и системы искусственного интеллекта, что предъявляет новые требования к процессам управления данными. Для успешного построения ML-моделей требуются методы и инструменты, позволяющие оперативно оценить пригодность данных для моделирования, а также протестировать различные гипотезы и сценарии применения моделей. Однако, для обеспечения эффективной работы моделей машинного обучения требуется не только контролировать качество данных на основе классических бизнес-правил, но и проактивно отслеживать изменения профиля данных, контролировать точность моделей, а также оценивать влияние изменения характера данных на применяемые модели и метрики качества. Доклад посвящен обсуждению особенностей управления данными для задач машинного обучения, а также соответствующих возможностей платформы Polymatica ML.
Вернуться
к докладчикам
Александра Аронова, АО «ГЛОНАСС»
Около 20 лет в ИТ-индустрии: Минкомсвязь России, где, в том числе, обеспечивала деятельность ведомства по регулированию отношений, связанных с обработкой персональных данных; ПАО «Ростелеком» – директор департамента по взаимодействию с органами государственной власти, где курировала вопросы нормативного обеспечения создания и функционирования Единой биометрической системы. Сейчас – заместитель Генерального директора АО «ГЛОНАСС», где отвечает за нормативное обеспечение цифровой трансформации транспортной отрасли, включая обработку данных мониторинга пассажирского транспорта и грузоперевозок.
Эшелоны управления и интеграции данных

.
Вернуться
к докладчикам
Олег Гиацинтов, DIS Group
Закончил МГТУ им. Н.Э.Баумана. Почти четверь века в ИТ-индустрии, из которых почти 20 лет – руководство ИТ-проектами. Работал в компаниях ЛАНИТ, АВТОМИР и Xerox. Эксперт в области стратегического управления и интеграции данных, обеспечения качества и управления нормативно-справочной информацией (мастер-данными), управления знаниями, а также построения дата-центрических бизнес-процессов. Сейчас – технический директор компании DIS Group, где отвечает за консалтинг, обучение партнеров и клиентов, а также руководит техническими специалистами и собственными разработками компании.
Управление критически важными данными

Управление данными предполагает наличие всеобъемлющей информации о них, зафиксированной в регламентах и политиках, учтенной в ролях и бизнес-процессах. При этом особенно важно иметь понимание об уровне качества и защищенности критически важных для компании данных. Доклад посвящен обсуждению особенностей организации эффективного управления критически важными корпоративными данными.
Вернуться
к докладчикам
Сергей Золотарев, Arenadata
Окончил МГТУ им. Н.Э. Баумана и Open University of London (MBA). Около 30 лет опыта работы в ИТ-индустрии: EMC, Jet, Avaya, Microsoft и Compaq. Возглавлял представительство компании Pivotal в России, СНГ и Восточной Европе, где руководил проектами в области управления большими данными – инициировал проект разработки универсальной открытой платформы данных, результатом которого стал, в частности, продукт Arenadata Hadoop, сертифицированный Linux Foundation. Основатель компании Arenadata, специализирующейся на разработке открытой платформы сбора и хранения данных. Сейчас – генеральный директор и управляющий партнер компании "Аренадата Софтвер".
От собственного дистрибутива Hadoop к высокотехнологичной экосистеме

.
Вернуться
к докладчикам
Александр Скоробогатов, Micro Focus
Окончил Тверской Государственный Технический Университет. Более 20 лет опыта работы в ИТ-индустрии. Карьеру начал с разработки систем мониторинга и нагрузочного тестирования, имеет богатый опыт проектирования и администрирования хранилищ данных, а также развития вычислительной инфраструктуры ЦОД. Принимал участие в развертывании конфигураций на базе решений SAP, возглавлял проекты миграции ИТ-сервисов. Сейчас – архитектор решений Vertica в России и СНГ, компания Micro Focus.
Унифицированная аналитическая платформа как основа для трансформации ландшафта обработки больших данных

Часто проекты модернизации ландшафта обработки данных вызваны какими-либо проблемами эксплуатации, недостатком функционала или коллизиями с драйверами – в процессе изменений главное не разрушить то, что уже работает. Возможным решением может стать переход на Vertica: быстрое аналитическое хранилище на стандартном серверном оборудовании без дорогостоящих дисковых массивов или HighEnd-серверов с интерфейсом ANSI SQL; горизонтально-масштабируемая колоночная MPP СУБД со встроенным аналитическим функционалом; возможность работы на «голом железе», виртуальных машинах и в облаках; близкий к реальному времени отклик на базах петабайтных объемов; аналитика на платформе Hadoop; работа с унаследованными процессами; онлайн-аналитика при работе с Kafka. Кроме этого Vertica поддерживает работу с алгоритмами искусственного интеллекта, контейнерную обработку и имеет встроенные механизмы репликации базы данных. Доклад посвящен возможностям формирования единой (унифицированной) экосистемы обработки данных на основе эволюционного подхода корпоративного ИТ-ландшафта, обеспечиваемого СУБД Vertica.
Вернуться
к докладчикам
Роман Гоц, Atos
Более 20 лет опыта работы в ИТ-индустрии: занимался развитием бизнеса в крупных технологических компаниях, управлял федеральными и макрорегиональными проектами, возглавлял управление федеральной розницей и расширением региональной партнерской сети. Сейчас – директор по развитию бизнеса компании Atos в России, где руководит департаментом больших данных и безопасности, предлагающим инфраструктурные решения предприятиям различных отраслей экономики.
Жизненный цикл данных – от периферии до озера

Данные сегодня приобрели критически важное значение, позволяя компаниям создавать инновационные решения, получать конкурентные преимущества и принимать взвешенные решения. Однако, управление данными создает для компаний большие трудности – цифровая трансформация невозможна без надежной архитектуры работы с данными и соответствующих аппаратно-программных решений:
  • Как эффективно управлять жизненным циклом данных?
  • Как оптимизировать данные?
  • Что из себя представляют периферийные вычисления?
  • Как реализовать DataLake не обладая специальными навыками?
  • Как гарантировать высокую рентабельность инвестиций?
Доклад посвящен комплексным решениям Atos, специально предназначенным для работы с большими данными и средствами видеоаналитики.
Генеральный партнер
Партнер
Информационные партнеры
Стоимость участия
в рублях
8500
При оплате до 15.08.2022
12900
При оплате с 15.08.2022
6500
При оплате до 15.08.2022
по коллективным заявкам
(от 3 человек)
9900
При оплате с 15.08.2022
по коллективным заявкам
(от 3 человек)
Стоимость участия для ИТ-компаний
в рублях
12900
При оплате до 15.08.2022
20900
При оплате с 15.08.2022
онлайн формат

Стоимость участия в рублях до 15.08.22
4900
онлайн формат

Стоимость участия в рублях c 15.08.2022
6500
Close
Close
Для связи с организаторами
conf@osp.ru
Подать заявку на доклад
Пожалуйста, укажите свои контакты,
тему и аннотацию доклада
Архив
«Управление данными 2021»
«Качество данных 2022»
«Управление данными 2020»
«Качество данных 2021»
.

© 1992 – 2022
Издательство «Открытые системы»
ИНТЕРНЕТ - ИЗДАНИЯ