Большой рывок к цифровому предприятию:
стратегии, платформы, практика

Конференция «LOW-CODE 2021»

Бизнес-потребности цифровых предприятий значительно превышают возможности их
ИТ-подразделений, нарастает дефицит ИТ-специалистов и разрыв между бизнес-пользователями
и ИТ, а неповоротливые корпоративные системы уже не в состоянии обеспечить оперативную трансформацию бизнес-процессов.
Low-code/no-code – драйвер гиперавтоматизации, инструмент масштабной трансформации бизнеса или накопление технологического долга и дополнительные проблемы с интеграцией,
безопасностью и надежностью?
Конференция LOW-CODE 2021 позволит оценить, какие стратегии и инструменты разработки
с минимальным кодированием помогут решить сегодняшние задачи цифровых предприятий -
и поддержать инновации дня завтрашнего.

ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства
«Открытые системы».
«Концепция минимального кодирования — сегодня одна из модных, и не случайно. Благодаря «конструкторам»
из платформ Low-code application platforms бизнес может сам быстро создавать и настраивать прототипы приложений для проверки гипотез и адаптации сервисов к требованиям рынка. Однако у технологии программирования с минимальным кодированием или вовсе без него есть ограничения – прежде чем решиться на low-code/no-code посетите нашу конференцию, куда приглашены все, начиная от специалистов по Agile, DevOps, AIOps, MLOps, DataOps до вендоров платформ low-code/no-code и бизнес-пользователей, готовых поделиться поучительными примерами».
Основные темы:
> Кому и когда следует использовать разработку
low-code, а кому нет?
> Каковы требования к квалификации целевых пользователей: «гражданский разработчик» – кто он?
> Как интегрировать средства low-code в существующий ИТ-ландшафт организации?
> Где границы масштабирования, расширения функциональности и производительности приложений
low-code?
> Кто в ответе за доработку, сопровождение и поддержку DIY-приложений?
> Как обеспечить их информационную безопасность
и отказоустойчивость?
В программе:
Стратегии
Low-code: панацея или опасная иллюзия?
Low-code: отсутствие стратегии автоматизации, драйвер цифровизации или цифровой зоопарк?
Философия или инструмент: насколько хорош подход Do-It-Youself для цифрового предприятия?
Жизненный цикл: как управлять конфигурациями low-code и надо ли?
Ограничения: что ни при каких условиях нельзя отдавать на откуп low-code?
Платформы и инструменты
Выбор платформы
Коммерческие платформы (Creatio, Siemens DIS Mendix, Comindware Business Application Platform, Elma BPM, WF Core, Microsoft Power Apps, IBM BAS, SAP BTP, Oracle APEX, ... )
Low-code из облака (Amazon Honeycode, Salesforce Platform…) и как сервис
Решения Open Source
Практика
Кто, когда и как применяет low-code/no-code
Отраслевой опыт: финансы, ретейл, телеком, промышленность, ТЭК, транспорт, государственное управление, юриспруденция и пр.
Специфика разработки приложений BPM, CRM, RPA, машинного обучения и др.
Интеграция рабочих процессов
Ошибки и ограничения минимального кодирования
Вернуться
к докладчикам
Алена Дробышевская, Яндекс.Облако
Окончила факультет ВМиК МГУ им. М.В. Ломоносова. Более 20 лет опыта работы в ИТ-индустрии – специализация: хранение и анализ данных, искусственный интеллект и машинное обучение, облачные технологии. Работала в компании KPMG, где возглавляла практику «Данные и аналитика», оценивала и внедряла решения с применением методов машинного обучения в интересах крупных российских предприятий. В компании Microsoft отвечала за продвижение решений для хранения и анализа данных, а также решений класса «Artificial Intelligence», в том числе с применением облачных технологий. До прихода в Microsoft работала в Oracle, где отвечала за продвижение на российский рынок хранилищ данных, платформы управления данными и инструментов бизнес-анализа. Имеет опыт открытия в России дочерней компании венгерского производителя ПО для банков в области управления рисками и автоматизации процессов кредитования, управления залогами. Сейчас, в компании Яндекс.Облако руководит направлением развития платформы машинного обучения, принимает участие в проектах, связанных с анализом данных и построением моделей на основе технологий искусственного интеллекта.
Данные для глубинного обучения

Мир становится цифровым – все больше компаний и организаций во всем мире меняют свои бизнес-модели, стремясь максимально полно использовать все доступные им данные для учета текущих и прогнозирования будущих потребностей своих клиентов и заказчиков. Растет важность машинного обучения при анализе данных и построении прогнозных моделей. Доклад посвящен анализу особенностей каждого этапа обработки данных и инструментов, применяемых в течение жизненного цикла систем искусственного интеллекта. Особое внимание уделено обзору сервисов, используемых для сбора, хранения, обработки и первичного анализа данных для построения моделей глубинного обучения и визуализации результатов. На конкретных примерах раскрывается процесс решения прикладных задач с использованием сервисов Yandex DataSphere, DataLens, Data Proc и др.
Вернуться
к докладчикам
Александр Скоробогатов, Micro Focus
Окончил Тверской Государственный Технический Университет. Более 20 лет опыта работы в
ИТ-индустрии. Карьеру начался с разработки систем мониторинга и нагрузочного
тестирования, имеет богатый опыт проектирования, администрирования хранилищ данных и
развития вычислительной инфраструктуры ЦОД, принимал участие в развертывании
конфигураций на базе решений SAP (включая SAP HANA), возглавлял проекты миграции
ИТ-сервисов. Сейчас – архитектор решений Vertica в России и СНГ.
Как построить унифицированное аналитическое хранилище

С ростом объемов хранения и обработки данных все чаще возникает вопрос – где же
находится в настоящий момент актуальная версия данных? Где лежат данные, готовые к
отображению? Это значит, что обработку данных необходимо осуществлять максимально
близко к местам их размещения, избегая создания лишних копий в разных информационных
системах. Доклад посвящен обсуждению требований, предъявляемых к современным
хранилищам данных: гибридное развертывание, наличие аналитических функций,
возможность масштабируемости и высокая производительность на петабайтных объемах.
Особое внимание уделено разбору примеров по оптимизации инвестиций в корпоративные
инфраструктуры обработки данных, построенные на базе решений с открытым кодом. Кроме
этого рассматриваются различные варианты построения конвейера для глубокой обработки
данных с помощью СУБД Vertica.
Вернуться
к докладчикам
Роман Гоц, Atos
Около 20 лет опыта работы в области информационных технологий: занимался развитием бизнеса в крупных технологических компаниях, управлял федеральными и макрорегиональными проектами, возглавлял управление федеральной розницей и расширением региональной партнерской сети. Сейчас – директор по развитию бизнеса компании Atos в России, где руководит департаментом больших данных и безопасности, предоставляющим решения на базе оборудования Atos для предприятий различных отраслей экономики.
Данные – это про прибыль. Решения для работы с Big Data

Данные сегодня имеют критически важное значение, позволяя компаниям создавать инновационные решения, получать конкурентные преимущества и принимать более взвешенные решения. Однако, управление данными создает для компаний большие трудности – цифровая трансформация невозможна без надежной архитектуры работы с данными и соответствующих аппаратно-программных решений. Доклад посвящен обсуждению комплексных систем от компании Atos, специально предназначенных для работы с большими данными и средствами видеоаналитики.
Вернуться
к докладчикам
Сергей Раков, «Ростелеком»
Окончил Национальный исследовательский университет «Московский институт электронной техники». Около 10 лет в ИТ-индустрии: технический специалист по поддержке сайтов, руководитель проектов по разработке продуктов. Сейчас – руководитель направления B2G (business-to-government) в компании «Ростелеком», где отвечает за платформу видеонаблюдения на выборах и ЕГЭ.
Яндекс.Метрика в проектах федерального масштаба

Обеспечение эффективного функционирования любого сайта невозможно без накопления и анализа статистики его эксплуатации, например с целью изучения поведения действий пользователей на порталах по видеонаблюдению. Как оптимально собирать статистические данные на проектах федерального уровня не потратив огромных средств и не сорвав сроки? Нужен ли свой собственный сервис или можно взять готовый? Доклад посвящен обсуждению опыта применения сервиса Яндекс.Метрика, используемого для изучения поведения пользователей на портале, сбора сведений о используемых ими устройствах, браузерах, разрешениях и т.д. с учетом нестандартных задач, решаемых федеральными порталами, за которые отвечает «Ростелеком». Особое внимание уделено анализу конкретных примеров передачи и обработки произвольных наборов данных, а также их использованию при анализе в совокупности со стандартными данными, собираемыми сервисом Яндекс.Метрика для формирования витрин данных, группировки и сегментации. Все это иллюстрировано в докладе на примере разбора конкретных сценариев использования параметров пользователей и результатов их визитов на портал: длительность просмотров трансляций по объектам, сбор статуса трансляций в плеере пользователя, работа с поиском и пр.
Вернуться
к докладчикам
Александр Хайтин, «Mechanica AI»
Более 20 лет в ИТ-индустрии, специализируется на консалтинге, разработке и внедрении передовых для своего времени технологий. Работал в «КОРУС консалтинг», где занимался анализом и изменением бизнес-процессов заказчиков, а также внедрением различных информационных систем. В Yandex Data Factory отвечал за разработку и внедрение решений на основе технологий машинного обучения. Сейчас – генеральный директор и со-основатель компании Mechanica AI, специализирующейся на проектах искусственного интеллекта в промышленности: металлургия, химическая индустрия, нефтехимия.

Дмитрий Карбасов, Евразийская Группа

Более десяти лет работает в сфере развития и трансформации бизнеса в компаниях ИТ-интеграторах и вендорах. Имеет богатый опыт практического применения технологий искусственного интеллекта, а также в управлении разработкой и развитии инновационных ИТ-продуктов и сервисов. Сейчас, в международной группы компаний Евразийская Группа (Eurasian Resources Group) руководит управлением промышленного искусственного интеллекта где за полтора года «с нуля» создал подразделение, ведущее проекты по созданию и внедрению технологий ИИ в производственные процессы добычи, переработки и производства алюминия, а также сплавов феррохрома. Кроме этого отвечает за решение задач оптимизации планирования и закупок.
Инвентаризация данных

Для реализации проектов с использованием искусственного интеллекта необходима обучающая выборка на основе данных, используемых для управления производством и можно ожидать, что достаточно просто взять архив таких данных и начать работать. Однако, это не так. При оперативном управлении применяется комбинация оцифрованных и архивных данных (вес, температура, химический состав и т. п.), а также сведения, непосредственно доступные оператору (цвет и объем дыма, шумы от оборудования и т.д.). Кроме того, даже цифровые данные не всегда хранятся после отображения в интерфейсе, а если и хранятся, то могут содержаться в анонимных таблицах без описаний и вне привязки к процессу и оборудованию. Ситуацию усугубляет еще и то, что чаще других теряются наиболее ценные данные: диагностированные проблемы, принятые меры и пр. Если предприятие собирается использовать машинное обучение для для улучшения своих производственных процессов, то стоит начинать именно с инвентаризации данных – простой, нудной работы, но позволяющей понять, какие именно данные используются, какая часть из них накапливается и в каком виде, а какая полностью теряется сразу после использования. В докладе на конкретных примерах показано, как относительно просто провести инвентаризацию данных, позволяющую подготовить почву для проектов по реализации предсказательных и рекомендательных моделей.
Вернуться
к докладчикам
Александр Гурко, НП «ГЛОНАСС»
Более 20 лет работает в сфере телекоммуникаций, на различных руководящих должностях курируя проекты ГЛОНАСС: президент некоммерческого партнерства «Содействие развитию и использованию навигационных технологий» (НП «ГЛОНАСС»); соруководитель рабочей группы по реализации и разработке дорожной карты «Автонет 2.0» Национальной технологической инициативы; член Совета при президенте РФ по модернизации экономики и инновационному развитию России, также Комиссии при президенте РФ по вопросам развития авиации общего назначения и навигационно-информационных технологий на основе системы «ГЛОНАСС»; руководитель рабочей группы по вопросам развития беспилотных летательных аппаратов, авиационных систем и авиационных видов спорта. Руководил проектами по созданию государственной системы «ЭРА-ГЛОНАСС», Единой системы управления наземным городским транспортом Московской агломерации, систем мониторинга транспорта для МВД России, МЧС России, «Почты России» и ОАО «Транснефть».

Игорь Кравченко, «Рексофт»

Почти 30 лет опыта работы индустрии разработки ПО – создание масштабных информационных систем для госкорпораций и государственных информационных систем федеральных уровня. Эксперт в области создания платформ обработки данных и телематических систем промышленного назначения. Руководил, в частности, проектами создания и внедрения системы сбора и обработки телематических данных для ведущего автопроизводителя, а также федеральной системы миграционного учета. Сейчас в компании «Рексофт» курирует вопросы, связанные с инновационными рынками и технологиями.
Платформа «Автодата»: управление автомобильными данными

Национальная навигационно-телематическая платформа «Автодата» призвана обеспечить формирование массива статистических и аналитических данных о колесных транспортных средствах, дорожной инфраструктуре, а также сопутствующей информации в транспортной сфере, связанной с логистикой людей и вещей. Платформа должна позволить сформировать массив данных по всему жизненному циклу автомобиля с момента его выпуска в обращение до утилизации: данные о функционировании бортовых систем, поведение водителя, телеметрия взаимодействия с автотранспортной инфраструктурой, а также создать цифровую среду для поддержки движения транспорта с различными степенями автоматизации по дорогам общего пользования. Доклад посвящен обсуждению задач, которые должна решать «Автодата», источников данных для нее и логики их сбора, особенностей их верификации, обогащения и обработки, а также перспектив применения платформы автомобильных. Особое внимание уделено обзору архитектуры платформы.
Вернуться
к докладчикам
Федор Краснов, Naumen
Окончил Национальный исследовательский ядерный университет «МИФИ», факультет экспериментальной и теоретической физики. С 2005 года отвечал за цифровую трансформацию в телеком-операторе AKADO Group в должности вице-президента по развитию бизнеса. В 2011 году был назначен директором по цифровизации Фонда «Сколково», в 2014 году перешел на аналогичную позицию в Интер РАО ЕЭС. С 2015 года работал в «Газпром Нефть НТЦ», где занимался задачами аналитической сейсмики и обработки естественного языка. Имеет международные сертификаты по машинному обучению и анализу больших данных, автор более 50 научных статей. Получил степень MBA в London Metropolitan University. Сейчас – директор департамента информационных систем управления в компании Naumen, где отвечает за управление инновационной деятельностью компании и развитие продуктового направления на базе технологий искусственного интеллекта и анализа больших данных.

Кира Есаулова, Naumen

Окончила Государственный университет управления Институт психологии и социологии управления. На различных руководящих должностях работала в Университете управления, Институте проблем глобализации, участвовала в масштабных проектах Минобрнауки России и МИД России. Автор ряда научных публикаций, эксперт Фонда развития интернет инициатив, входит в рабочие группы Минобрнауки России, МИД России и Правительства Российской Федерации. Сейчас – руководитель направления интеллектуального анализа и поиска данных компании Naumen.
Интеллектуальный анализ документов

Объем неструктурированных данных в компаниях сегодня растет в геометрической прогрессии и составляет уже тера- и петабайты различной технологической, проектной и нормативно-методической документации, публикаций и научной литературы. При отсутствии консолидированного хранилища и инструментов поиска компании сталкиваются с проблемой использования всех этих накопленных данных, на поиск и обработку которых сотрудники часто тратят слишком много времени. Системы корпоративного поиска (Enterprise Search), построенные на базе технологий искусственного интеллекта и средств обработки естественного языка потенциально способны значительно ускорить процесс поиска информации, максимально релевантной запросам. В докладе на конкретных примерах обсуждаются возможности применения систем интеллектуального поиска и анализа документов для автоматизации работы различных групп пользователей.
Вернуться
к докладчикам
Олег Сурков, «Росатом»
Окончил «Санкт-Петербургский государственный университет экономики и финансов» по специализации финансовый менеджмент. Более десяти лет опыт в сфере управления данными – успешно реализовал ряд крупных проектов в сфере автоматизации ключевых бизнес-процессов, а также цифровых проектов по созданию продуктов и платформ управления данными. Имеет опыт внедрения, адаптации, модификации международных фреймворков, а также опыт создания новых фреймворков для управления данными. Сейчас – руководитель управления корпоративных данных, где отвечает за создание системы управления с помощью данных в периметре ГК «Росатом».

Дмитрий Рудаков, «Росатом»

Окончил «Братский индустриальный институт» по специальности сети и системы энергетического факультета. Более двадцати лет опыта работы в области информационных технологий. Богатый опыт внедрения корпоративных систем и построения централизованных систем НСИ. Эксперт межотраслевых и федеральных рабочих групп. Сейчас возглавляет службу корпоративной системы НСИ ГК «Росатом».
НСИ – связующее звено: Data Governance и Data Management

Комплекс мероприятий по созданию системы управления с помощью данных включает широкий спектр процессов: управление стратегией компании, управление ИТ-стратегией, управление проектной деятельностью, управление разработкой и сервисной поддержкой ИТ-активов. На практике нередки случаи совмещения понятий Data Governance (DG), представляющего, по сути, законодательную «ветвь власти», и Data Management (DM) – исполнительной «ветви власти». В связи с этим часто возникает вопрос, что именно из себя представляет «Управление данными», как оно ими управляет и управляет ли вообще? В ГК «Росатом» используются сложные технологические процессы, используемые при проектировании и сооружении крупномасштабных энергетических установок, в машиностроении, добычи полезных ископаемых и генерации электроэнергии. Применение корпоративных системы НСИ позволяет унифицировать обмен данными в отраслевых бизнес-процессах, повысить их эффективность и подготовить основу для внедрения подходов и методологий DG и DM. В докладе раскрываются ключевые различия между понятиями DG и DM, а также обсуждается роль и важность НСИ, как главного средства связи между уровнем контроля и прикладным уровнем, позволяющего наполнять метаданные данными.
Вернуться
к докладчикам
Сергей Степанов, «Газпром нефть»
Окончил Тюменский государственный университет по специальности «Информационные технологии в геологии и геоинформатике». Почти 15 лет опыта работы в ИТ-индустрии: архитектор баз данных, разработчик и аналитик. Сейчас – руководитель направления по ИТ, сектор качества данных и ИТ-сопровождения Центра управления добычи «Газпромнефть Ямал», где отвечает за настройку механизмов поставки, использования данных в рамках процессов операционной деятельности: «Интегрированная модель актива» и «Интегрированный план актива».

Лев Зуев, «Газпром нефть»

Окончил Санкт-Петербургский государственный университет экономики и финансов (ФИНЭК) по специализации «Финансы и Кредит». Более десяти лет опыта руководства ИТ-проектами и программами управления экономическими процессами и данными. Сейчас – ИТ-бизнес партнер программ Блока разведки и добычи «Газпром нефть» (БРД), где отвечает за программу «Управление данными БРД».


Управление данными в интегрированном планировании

Интегрированное планирование объединяет всю цепочку создания стоимости от переработки до сбыта с целью создания сквозного плана, позволяющего минимизировать риски несоответствия между спросом и предложением – компания должна производить ровно столько нефтепродуктов определенной номенклатуры, сколько может перевезти и реализовать для удовлетворения потребностей рынка. Такое планирование дает возможность оперативно и эффективно управлять жизненным циклом продукта по всей цепочке добавленной стоимости с учетом существующих ограничений и имеющихся возможностей. Доклад посвящен обсуждению бизнес-задач, проблем, преимуществ и результатов реализации проекта интеграционного планирования: оптимизационная модель (функционирование, вход-выход); изменения по итогам реализации проекта – сложности и пути их преодоления. Особое внимание уделено анализу процессов работы с данными – что пришлось поменять в работе с данными, основные проблемы и решения, изменение отношения к данным в бизнесе.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта создания сложных автоматизированных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, работающих сегодня на крупнейших отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий».

Константин Кондратьев, «ТриниДата»

Специалист по Machine Learning и Natural Language Processing. Участвовал в работе над проектами с применением технологий машинного обучения для компаний Вымпелком и Яндекс. В компании «ТриниДата» руководит направлением применения машинного обучения в связке с онтологиями.
Обработка корпоративной информации на естественном языке

Люди обычно предпочитают работать с информацией на естественном языке, а не со структурированными данными – текстовые документы составляют значительную часть данных и значительный объем знаний предприятия. Вместе с тем, до сих пор наиболее распространенный способ работы с такими документами – полнотекстовый поиск, не учитывающий смысла обрабатываемых текстов. Большинство существующих сегодня средств интерпретации естественного языка опираются на использование нейросетей, работа которых часто не поддается анализу, результаты иногда необъяснимы и неожиданны. Альтернатива – использование правил разбора текста, применимых, однако, только для решения относительно локальных задач. Сделать следующий шаг в обработке информации на естественном языке позволяет совместное использование онтологий, как средства представления концептуальных и языковых моделей, и методов машинного обучения. В фокусе доклада – методы и инструменты работы со смыслом, заложенным в текстовой информации: преобразование запросов аналитиков на естественном языке в запросы к структурированным данным; интеграция методов обработки информации на естественном языке со средствами консолидации корпоративных данных; извлечение смысловых конструкций из текстов на естественном языке с целью индексации и автоматизированного аннотирования.
Вернуться
к докладчикам
Эдуард Олевинский, Правовое бюро «Олевинский, Буюкян и партнеры»
Окончил юридический факультет Высшей школы приватизации и предпринимательства, а также и факультет психологии МГУ им. М.В.Ломоносова. Более 30 лет опыта работы на рынке юридических услуг, основатель и руководитель компании «Правовое бюро «Олевинский, Буюкян и партнеры», специализирующейся в области сопровождения процедур банкротства.

Александр Колчин, Правовое бюро «Олевинский, Буюкян и партнеры»

Окончил факультет «Системы управления летательными аппаратами» Московского авиационного института. Около 30 лет опыта работы в сфере общественных коммуникаций и корпоративного управления: The PBN Company, R&R Advertising, «Мобил Телеком», «Русские ВЕБ-ресурсы». Сейчас − партнер компании «Правовое бюро «Олевинский, Буюкян и партнеры».
Что нужно юристам в эпоху цифровой трансформации?

Работа юристов, как правило, оплачивается исходя из почасовой ставки – время стоит серьезных денег, которые платит либо клиент, ожидаемо не желающий нести расходы на техническую, с его точки зрения, работу, либо юридическая компания, что снижает ее billable rate (эффективность труда). Как одна из наиболее консервативных областей – юриспруденция переживает эпоху цифровой трансформации? Что нужно для того, чтобы клиенты не платили за подготовку рутинных документов и поиск данных в различных источниках, а юристы прежде всего занимались защитой интересов своих клиентов, а не тратили время на непроизводственную деятельность? Как организована интеграция с открытыми данными и что сегодня происходит в сфере информатизации деятельности юристов? Доклад посвящен ответам на эти вопросы, формулировке требований к «идеальной» системе для юриспруденции и обзору имеющихся на рынке решений (LegalTech) информатизации работы юристов. Особое внимание уделено анализу опыта эксплуатации интегрированной системы, созданной в правовом бюро «Олевинский, Буюкян и партнеры», а также обсуждению перспектив ее развития и еще не решенных задач в области цифровизации юриспруденции.
Вернуться
к докладчикам
Иван Вахмянин, Visiology
Окончил МИФИ по специальности «Информационное обеспечение экономических процессов», аспирантуру Российской академии государственной службы при президенте РФ по специальности «Информационные технологии в управлении» и Московскую школу управления «Сколково». Эксперт в сфере разработки ПО для анализа и визуализации данных. Сейчас – генеральный директор компании Visiology, где руководит созданием и развитием аналитической платформы бизнес-аналитики.
ViXtract – открытый инструмент загрузки и преобразования данных


Вернуться
к докладчикам
Наталья Мусорина, «Ростелеком»
Окончила МИФИ по специальности «Прикладная ядерная физика». Около 15 лет опыта работы с данными: Сбербанк России, «Газпромбанк», банк «Открытие». Сейчас – директор департамента управления данными в компании «Ростелеком», где отвечает, в частности, за бизнес-системный анализ данных, внедрение операционных процессов управления данными, разработку сервисов и инструментов управления данными.

Александр Юрасов, «Ростелеком»

Окончил Московский государственный индустриальный университет по специальности прикладная информатика в экономике и управлении. Более 10 лет опыта в сфере построения отчетности и управления данными: в «Вымпелком» занимался развитием хранилищ данных и отчетностью бизнес-аналитики для стран СНГ; в Альфа-банке руководил проектами по развитию отчетности по Российским стандартам бухгалтерского учета и Международным стандартам финансовой отчетности. Сейчас – руководитель направления по развитию информационных сервисов департамента управления данными в компании «Ростелеком».
DataGovernance своими силами

Для того, чтобы данные стали ценным активом компании, необходимо, чтобы все ее сотрудники понимали, какими данными они владеют, где их можно получить и как использовать. Как показывают исследования, в крупных компаниях при решении задач работы с данными, от 40 до 80% времени уходит на их поиск. Однако, на практике ситуация еще хуже – данные могут быть безнадежно устаревшими, избыточными, многократно дублированными, либо о их существовании известно лишь узкому кругу пользователей. Данными нужно уметь эффективно управлять и на сегодняшний день на рынке имеются соответствующие решения класса DataGovernace, однако и они часто не позволяют решать конкретные задачи предприятия. Доклад посвящен обсуждению опыта разработки концепции DataGovenance в компании «Ростелеком». Особое внимание уделено анализу причин отказа от внедрения коробочного решения и инициации создания собственного инструмента документирования данных на основе стека Open Source.
Вернуться
к докладчикам
Роман Стрекаловский, «Юнидата»
Около 20 лет опыта работы в качестве архитектора и руководителя проектов – прошел путь от тестировщика, создающего мидлеты для проверки JVM на мобильных телефонах первых поколений и руководителя проектов, до основателя компании, предлагающей рынку инновационные ИТ-решения: Motorola; T-Mobile,Yota – разработка, внедрение и эксплуатация продуктов в области телекоммуникаций; Home Credit – проекты в сфере индустрии финансов. Сейчас – ведущий архитектор в компании Юнидата, где отвечает за развитие инструментальной платформы и продуктов на ее основе, начиная с технологического стека и заканчивая бизнес-потребностями клиентов в области руководства и управления данными.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Почти 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Data Governance на службе у государства

Доклад посвящен обсуждению опыта выполнения федерального проекта мониторинга социально-экономических показателей в сфере здравоохранения, коммуникаций, экономики и обеспечения правопорядка. Успешное выполнение проекта такого масштаба было бы невозможно без технологии Руководства данными (Data Governance). Использование инструментов данного класса позволило не на бумаге, а на деле решать подобные задачи на принципиально ином технологическом и методологическом уровне. Особое внимание в докладе уделено анализу качества организации и бесперебойности процесса сбора показателей, а также возможности отслеживания происхождения данных по каждому из показателей.
Вернуться
к докладчикам
Николай Разин, Банк России
Окончил МФТИ, специализируется на создании интеллектуальных ИТ-систем, выявляющих скрытые закономерности в больших объемах данных: поиск первоисточников новостей событий, оказывающих существенное влияние на ход торгов и биржевых котировок; классификация больших объемов текстов, написанных в свободной форме; определение и распознавание паттернов, характеризующих поведение участников торгов. Сейчас – руководитель отдела функционального развития Департамента противодействия недобросовестным практикам, Банк России.
Практика машинного обучения в Банке России

Эффективная работа с данными, с одной стороны, предполагает максимальную гибкость при работе с необходимыми инструментами, а с другой, всегда ограничена требованиями протоколов безопасности, охраняющих чувствительные данные от произвольного распространения. Несмотря на столь противоречивые требования, точка, в которой достижим правильный баланс – существует и найденные в результате построения прототипов удачные модели означают не конец, а начало пути. Следующий вопрос – как внедрять модели машинного обучения в промышленную эксплуатацию и как их поддерживать? В докладе на практических примерах моделирования систем машинного обучения в Банке России рассмотрены все плюсы и минусы процесса промышленной эксплуатации соответствующих моделей.
Вернуться
к докладчикам
Роман Генис, «Ростелеком»
Окончил МГТУ им.Н.Э.Баумана. Более 15 лет в ИТ-индустрии: «Топс Бизнес Интегратор» – ИТ-консультант; «Форс-Центр разработки», «Банк Открытие» – архитектор проектов. Специализируется на архитектурах аналитических хранилищ данных и систем отчетности, инструментах интеграции и бизнес-аналитики, приложениях управления эффективностью бизнеса, финансовой и управленческой отчетности, а также на приложениях бюджетирования и финансового планирования. Сейчас – архитектор проектов департамента технологического развития управления данными в компании «Ростелеком».
Работа с мастер-данными и трансформациями в корпоративном хранилище

При загрузке данных до уровня витрин корпоративного хранилища обычно выполняется переход от справочников систем источников к принятым в компании эталонным справочникам (мастер-данным). Однако, такая загрузка данных обычно очень зависит от времени выполнения процессов подготовки и согласования с бизнесом маппингов справочников систем источников. Кроме того, при внесении любых изменений в маппинги требуются длительные масштабные перезагрузки и перепривязки данных. Доклад посвящен обсуждению проблем, возникающих при загрузке бизнес-данных в корпоративное хранилище и подходов, применяемых в корпорации «Ростелеком» для существенного сокращения времени загрузки. Особое внимание уделено архитектуре основного хранилища данных, анализу особенностей его взаимодействия с источниками, а также используемым инструментам управления мастер-данными.
Вернуться
к докладчикам
Александр Сидоров, HeadHunter
Около 20 лет в ИТ-индустрии. Работал менеджером проектов и руководителем сервисов в компании Яндекс. Более 15 лет занимается проектированием и разработкой систем с элементами искусственного интеллекта. Сейчас – руководитель направления анализа данных в компании HeadHunter, где отвечает за разработку и развитие поисковых и рекомендательных систем, метрик и автомодераций.
Как мгновенно найти работу и сотрудников

Многие работодатели и соискатели любят составлять резюме или вакансии из пары предложений, задавать запросы из одного слова и получать готовые контакты друг друга сразу же после того, как посетили сайт. Естественно, каждый из них делает все это по-своему, преследует свои конкретные цели, которые в кризисной ситуации меняются очень стремительно. Чтобы сделать все это возможным, сэкономив время соискателей и работодателей, требуется в реальном времени обработать все накопленные данные о их поведении на сайте, сформировать входной пул для системы машинного обучения, позволяющей предсказывать, кто кому подходит и сформировать итоговую индивидуальную витрину с вакансий и предложений. Доклад посвящен обсуждению технологий обработки потоков данных и архитектуры системы, позволяющей автоматически, без вмешательства кадровиков hh.ru готовить выборки, максимально адекватные запросам.
Вернуться
к докладчикам
Максим Кокурин, «Интер РАО»
Окончил факультет технической кибернетики Тульского государственного технического университета и НИУ ВШЭ по специальности финансовый контроль, бухучет и аудит. Около 30 лет опыта в сфере разработки и внедрения ERP, управления основными данными, проектирования и развертывания прикладной корпоративной архитектуры: Банк России – центр разработки (Региональная Автоматизированная Банковская Информационная Система; Программно-Технологический Комплекс Подготовки и Сбора Данных); Oracle – консалтинг в области разработки и внедрения приложений; SAP – логистика, Техническое Обслуживание и Ремонт Оборудования, прикладные разработки, интеграция, аналитика. Сейчас – руководитель департамента блока ИТ в «Интер РАО», где отвечает за организацию работы специализированной ИТ-компании, построение прикладной корпоративной архитектуры и создание системы управления основными данными.
Основное – данные: замена «коней» на переправе

Может ли импортозамещение не быть хайпом и зачем менять то, что работает? В чем ценность готовых решений и сложность их выбора, когда дешевле не значит лучше, а быстрее не значит эффективнее? Для ответа на эти вопросы в докладе обсуждается процесс эволюции системы управления основными данными от «наливания воды решетом» до стабильной, производительной и расширяемой модели управления. Особое внимание уделено анализу опыта проекта импортозамещения – создания, эксплуатации и развития системы управления основными данными группы «Интер РАО».
Вернуться
к докладчикам
Андрей Бадалов, НИИ «Восход»
Окончил Московский инженерно-физический институт (МИФИ), факультет «Кибернетика» по специальности «инженер-математик». Работал на предприятиях оборонной промышленности страны, консультантом «Информационного центра научного парка МГУ», занимал руководящие должности в «Российской корпорации средств связи» (РКСС), входящей в холдинг «Росэлектроника». Сейчаc – директор НИИ «Восход».
Наш опыт создания НСУД

В рамках федерального проекта «Цифровое государственное управление» национальной программы «Цифровая экономика» в 2019 году началась разработка Национальной системы управления данными (НСУД), призванной связать государственные информационные системы и обеспечить доступность, достоверность, полноту, непротиворечивость и защищенность используемых в них данных. По сути, НСУД — это совокупность правовых, организационных, методологических и информационно-технологических элементов, требуемых для объединения информационных систем государственных и муниципальных органов власти. НСУД должна ускорить автоматизацию процессов госуправления, повысить качество и скорость оборота данных, а также предоставить гражданам и юридическим лицам цифровые услуги на более высоком уровне. Доклад посвящен обсуждению особенностей разработки и апробации НСУД, ее ключевых информационно-технологических элементов: Единой информационной системы и витрин данным. Особое внимание уделено анализу опыта конкретных внедрений технологий НСУД в пилотных ведомствах.
Вернуться
к докладчикам
Антон Вахрушев, Сбербанк
Окончил Удмуртский государственный университет, экономист-математик. Около десяти лет опыта разработки прогнозных моделей для крупных банков. Призер соревнований по машинному обучению – «Kaggle Master». Сейчаc – руководитель направления, разработчик решения AutoML в Лаборатории искусственного интеллекта, Сбербанк.
AutoML: анализ данных и моделирование

Число специалистов по исследованию данных (Data Science) сегодня растет существенно медленнее, чем объем задач, решаемых методами машинного обучения. Однако, большинство таких задач – типовые. Доклад посвящен обсуждению способов автоматического решения львиной доли подобных задач при помощи инструмента AutoML, позволяющего освободить время дорогостоящих специалистов для более важных проблем: корректной постановки задачи, выбора наиболее адекватной целевой метрики, генерации экспертных признаков и т.п. Рассмотрены особенности построения blackbox-моделей с помощью библиотеки LightAutoML (LAMA) и интерпретируемых моделей средствами WhiteBoxAutoML, выбираемых в зависимости от конкретной задачи, требований регулятора и возможностей инфраструктуры. Кроме этого в докладе рассмотрены различные варианты инференса моделей с помощью сервисов SberCloud и автоматически сгенерированных SQL-запросов. Примечательно, что соответствующие библиотеки в скором времени будут доступны и сообществу OpenSource.
Вернуться
к докладчикам
Алексей Карапузов, Минцифры России
Окончил Московский института стали и сплавов (МИСиС) по специальностям «Инженер по автоматизации технологических процессов и производств» и «Информационные системы: внедрение сложных информационных систем на основе SAP и Oracle», а также обучался в Центре подготовки руководителей цифровой трансформации ВШГУ РАНХиГС. Работал на различных позициях в практике ИТ-консалтинга компании IBS, а затем в Фонде развития промышленности, где в должности руководителя направления отвечал за развитие государственной информационной системы. В 2018-2020 годах работал заместителем главы администрации города Нижнего Новгорода по информационным технологиям. Обладает богатым отраслевым опытом в сфере создания и развития информационных систем, реализации программ информатизации, применения механизмов государственно-частного партнерства, консультирования в области реорганизации бизнес-процессов, ИТ-аудита и разработки ИТ-стратегий. Сейчас – заместитель директора Департамента развития архитектуры и координации информатизации Минцифры России, где курирует разработку единой технической политики и ее внедрение в органах государственной власти, развитие методологии и архитектурных подходов, используемых при создании и развитии информационных систем, механизмов государственно-частного партнерства в государственных ИТ-проектах.
Единая техническая политика: принципы и требования к управлению данными в информационных системах органов власти

Единая техническая политика – совокупность принципов, правил и требований, наилучшим образом обеспечивающих достижение целей цифровой трансформации госуправления. Такая политика призвана синхронизировать и дополнить существующие требования к созданию информационных систем органов государственной власти, организации взаимодействия как с пользователями систем, так и взаимодействия систем между собой, включая управление данными. Доклад посвящен обсуждению принципов и требований к управлению данными в информационных системах органов государственной власти.
Вернуться
к докладчикам
Анна Андрейченко, Центр диагностики и телемедицины, Департамент здравоохранения Москвы
Окончила НИЯУ МИФИ, Университет Неймегена и Университет Утрехта (Нидерланды), PhD, к.физ.-мат.н. Сейчас – старший научный сотрудник, руководитель отдела медицинской информатики, радиомики и радиогеномики Центра диагностики и телемедицины Департамента здравоохранения города Москвы, заместитель главы комитета по искусственному интеллекту в лучевой диагностике Московского регионального отделения Российского общества рентгенологов и радиологов.
Искусственный интеллект в медицинской визуализации

Доклад посвящен анализу текущих результатов и обсуждению опыта масштабного московского эксперимента по использованию компьютерного зрения для анализа медицинских изображений и его применения в системе здравоохранения Москвы (mosmed.ai). Особое внимание уделено особенностям работы с медицинскими данными, в частности, созданию эталонных наборов для решения задачи валидации в системах медицинского искусственного интеллекта.
Вернуться
к докладчикам
Александр Тарасов, DIS Group
Закончил Белгородский государственный технологический университет им. В.Г.Шухова. Около 20 лет в сфере управления ИТ-проектами, управления инновационной деятельностью и управления данными (в том числе Data Governance). Работал старшим директором по развитию бизнеса компании БДО Юникон, начальником департамента ИТ в МРСК Центр, а также руководил проектами SAP в ряде организаций. Автор серии вебинаров Data Governance, член Экспертного совета премии CDO Award. Сейчас – управляющий партнер DIS Group где руководит отделом консалтинга и направлением Master Data Management.
CDO & CEO: кто отвечает за цифровую трансформацию?

До сих пор не стихают споры об основных задачах директора по данным (CDO), а между тем, глобальные вопросы качества данных из категории хайпа перешли в категорию жизненно-важных проблем компаний. Недавние исследования свидетельствуют о том, что CDO становятся новыми партнерами бизнес-инициатив, и при этом в фокусе их внимания остаются задачи внедрения процесса «Know your data» и работа с «чувствительными» данными. Роль CDO в компании меняется – сегодня мы говорим не просто о директоре по данным, а о его архетипе: «Governance guru», «Оптимизатор процессов», «Цифровой драйвера» и «Бог аналитики». Однако, как показывает практика, для эффективной реализации цифровой бизнес-модели компании CDO не хватает реальных полномочий, но они есть у CEO, который зачастую не принимает активного участия в цифровизации. Актуальным становится организация бизнес-партнерства CDO и CEO. В докладе обсуждается, какой из архетипов CDO важен в каждой конкретной ситуации, как он сочетается с текущей бизнес-стратегией, какие из задач являются приоритетными для CDO на данный момент, и как необходимо выстраивать взаимодействие между CDO и CEO в компании.
Вернуться
к докладчикам
Роман Раевский, независимый эксперт
Окончил аспирантуру физико-технического факультета Уральского государственого технического университета по специальности «теоретическая физика». Около 30 лет опыта создания, разработки и внедрения ERP, CRM и аналитических систем на зарубежных и отечественных предприятиях и организациях. Принимал участие в проектах вывода на российский и европейский рынок сложных ИТ-продуктов класса ERP и CRM, а также аналитических платформ. Обладает глубокой экспертизой по системам бизнес-аналитики, включающим стек технологий искусственного интеллекта, автор ряда продуктов и алгоритмов.
Бизнес-аналитика: как монетизировать ваши данные?

Как известно, сами по себе инструменты бизнес-аналитики денег бизнесу не приносят, а их внедрение часто затратно и далеко не всегда успешно. Как сделать так, чтобы данные, поступающие на вход таких систем, приносили компании прибыль, а проект их внедрения быстро окупался? Какие результаты действительно нужно визуализировать, а что предоставить для дальнейшего анализа бизнес-пользователям? Доклад посвящен ответам на эти и другие вопросы. Особое внимание уделяется обзору реальных примеров, демонстрирующих преимущества систем бизнес-аналитики, изложению основных принципов окупаемости проектов внедрения аналитики в различных организациях, а также критериев их успешности.
Конференция для:
Директоров по развитию и цифровой трансформации;
Управляющих директоров, менеджеров проектов
Руководителей функциональных,
бизнес-подразделений и направлений;
Проектировщиков и архитекторов цифровых решений;
ИТ-директорови руководителей ИТ-отделов;
Бизнес-аналитиков, консультантов и экспертов
Спикеры
Low-code для профессиональных разработчиков
Андрей Слекеничс
Сбер
Low-code вчера, сегодня, завтра
Сергей Степанов
«Россельхозбанк»
Как без кода быстро проверить бизнес-гипотезу
Леонид Голованов
МТТ

«Леруа Мерлен»

«Яндекс»
Вернуться
к докладчикам
Максим Яцкевич, ВТБ
Окончил МГТУ им. Н.Э. Баумана. Более десяти лет опыта работы в области создания ИТ-инфраструктур и автоматизации бизнес-процессов. Сооснователь и ex-CPO (Chief Product Officer) компании PIX Robotics. Выполнил более 70 проектов роботизации бизнес-процессов, включая создание центров компетенции. Обучил 1200 слушателей технологиям и разбору процессов для RPA. Член жюри в акселераторах и ментор Инновационного центра «Сколково». Трекер стартапов при программах Сбера, Газпромнефти, Правительства Москвы. Член «Международного объединения бизнес трекеров». Сейчас – CPO Банк ВТБ.
Low-code – ниша, тенденция или «биржа»?

Одна из самых серьезных проблем современных корпораций — это бесконечные запросы к ИТ-подразделению с просьбами то на исправление ошибок, то на улучшения приложений. Удовлетворение подобных заявок подчас происходит тяжело, долго и болезненно. С другой стороны, сегодня широко обсуждаются вопросы создания сайтов, роботов, чат-ботов, VR-конференций без программирования, а лишь путем "перетаскивания по экрану кубиков с тривиальными названиями". Без обращения к ИТ-подразделению можно теперь практически бесплатно протестировать бизнес-гипотезу, что позволяет в разы сокращать накладные расходы и время вывода продукта или сервиса на рынок. Аналитики наперебой предсказывают стремительный рост рынка платформ Low-code, что, с одной стороны позволит ускорять решение проблем бизнеса силами самого бизнеса и устранить дефицит ИТ-кадров, а что с другой? Доклад посвящен обсуждению преимуществ и недостатков философии минимального кодирования, платформы которого претендуют сегодня на роль инструментов гиперавтоматизации. Low-code – это узкая ниша, общая тенденция эпохи цифовизации или лишь «игра на бирже» с неизвестным результатом?
Вернуться
к докладчикам
Ринат Гимранов, «Сургутнефтегаз»
Окончил Новосибирский электротехнический институт по специальности «инженер-системотехник» и Московский государственный институт международных отношений МИД России (MBA – международный нефтегазовый бизнес). Более 30 лет опыта работы в ИТ-индустрии. реподаватель в магистратуре Сургутнефтегаза в Сургутском государственном университете. Эксперт Сколково. Сейчас – начальник управления ИТ ПАО «Сургутнефтегаз».
Почему у Low-code нет альтернативы в цифровой экономике

В компаниях нефтегазового сектора сегодня внедряется огромное количество продуктов и платформ, кратно увеличивающих насыщенность виртуального мира артефактами и повышающих интенсивность информационного обмена между реальным и виртуальным миром – цифровые двойники должны быть как можно более адекватны реальным объектам. Отчасти проблему адекватности двух миров решает Интернет вещей и сопутствующие технологии – при высокой изменчивости реального мира требуется не только насытить цифровые двойники данными в реальном времени, но также в реальном времени изменять их свойства, структуру, особенности взаимодействия с другими объектами. Однако, в режиме реального времени сделать это невозможно пока требуется обязательное вмешательство программистов. Вместе с тем, если языком программирования сделать онтологические модели, реализованные на платформах Low-code, то соответствующие цифровые платформы смогут справиться с потоком разнообразия изменений. Доклад посвящен обсуждению актуальности платформ Low-code и их месту в ИТ-ландшафте крупного предприятия, вопросам изменения модели взаимодействия ИТ-служб с заказчиком и подходам к созданию бизнес-приложений с помощью инструментов Low-code. Особое внимание уделено безальтернативности использования минимального кодирования для обеспечения адекватности цифровых двойников и цифровых следов объектам и событиям реального мира.
Вернуться
к докладчикам
Никита Старичков,
Окончил Московский физико-технический институт, факультет инноваций и высоких технологий по специальности «Прикладная математика и информатика». Более пяти лет в ИТ-индустрии – сотрудник отдела разработки платформы 1С:Предприятие. Руководитель базовых кафедр компании 1С в НИУ МФТИ и НИУ ВШЭ – преподает дисциплины "Проектирование ПО" и "Технологии программирования". Сейчас – заместитель директора по работе с научно-исследовательскими университетами, 1С.
Платформа для цифровизации бизнеса


Вернуться
к докладчикам
Мастер-класс: Управление корпоративными данными
Современные компании и организации с каждым годом вынуждены обрабатывать все больше различных данных – кроме сбора и анализа данных для них все более актуальным становится вопрос: как помочь пользователям не потеряться в информационном потоке, обеспечить прозрачность и эффективный поиск доступных сведений? Для решения этой задачи необходимо выстраивание процессов Data Governance, включая управление метаданными и качеством данных.

Кирилл Евдокимов, Директор практики Data Governance, Ataccama – ведущий мастер-класса «Управление корпоративными данными», предназначенного для Chief Data Officer (CDO); Data Quality Manager; руководителей проектов, связанных с управлением данными; аналитиков данных; инженеров по данным; разработчиков систем хранения данных и решений бизнес-аналитики.

Алексей Ильин, Генеральный директор российского офиса, Ataccama. Окончил ВМК МГУ, кандидат технических наук. Около 20 лет опыта в области управления качеством данных, мастер-данными и метаданными, а также построения корпоративных хранилищ данных. В интересах различных международных консалтинговых компаний реализовал ряд проектов по управлению данными для ведущих российских предприятий, работающих в сфере ретейла, финансов и добычи углеводородов. Сейчас – генеральный директор российского офиса компании Ataccama, где отвечает за стратегические проекты в области управления данными, управления мастер-данными и управления метаданными для заказчиков из России и стран Восточной Европы.

Основные темы мастер-класса:

  • Почему управление данными с каждым годом становится все более актуальным?
  • Практическая ценность управления метаданными и качеством данных для бизнес-пользователей – разбор решения конкретной задачи
  • Как выстроить процессы управления данными? Подход к организации процессов и ролей
  • Инструментарий управления качеством данных. Почему нельзя решить все проблемы с помощью SQL?
  • Могут ли ИТ и бизнес решить задачи управления данными друг без друга?
  • Как «посчитать» ценность управления данными для бизнеса?
В рамках мастер-класса на практических примерах разбираются:

  • варианты использования каталога данных и его синергия с системой управления качеством данных;
  • способы получения ценности профилирования данных, как отправной точки для реализации процессов;
  • подходы к оценке бизнес-кейсов по управлению данными.

Ведущий: Кирилл Евдокимов.
Окончил ВМК МГУ. Почти 20 лет опыта работы в сфере управления данными и аналитики: в интересах различных международных консалтинговых компаний занимался реализацией хранилищ данных, развертыванием MDM- и BI-решений в крупных российских компаниях банковского, розничного и страхового секторов; работал в финансовом секторе – руководил проектами по внедрению и развитию аналитических систем (Campaign Management, AML, OpRisk, DWH, KYC); в Райффайзенбанке руководил отделом управления данными – отвечал за стратегию развития Data Governance, выстраивание и сопровождение процессов управления метаданными, обеспечение качества данных, работу с НСИ, а также за развитие корпоративного хранилища данных, инструментария self-service для бизнес-аналитиков и проверку гипотез Data Science. Сейчас – директор практики Data Governance российского офиса компании Ataccama, где ведет стратегические проекты в области управления качеством данных, управления метаданными и НСИ, консалтинг по организации процессов Data Governance для заказчиков из России и стран Восточной Европы.
Вернуться
к докладчикам
Ринат Абдурахманов, «Билайн»
Окончил РГУ Нефти и Газа им. И.М. Губкина, факультет «Автоматика и вычислительная техника». Около десяти лет в ИТ-индустрии – процессы управления данными, создание систем хранения и обработки данных: «Сибур» – старший эксперт по управлению данными; Accenture – консультант по хранилищам данных на проектах для «Росбанка» и «Альфа-банка». Сейчас – руководитель департамента Data Governance «Билайн».
Data Mesh в телекоме

Любая телекоммуникационная компания собирает и обрабатывает огромное количество данных, стараясь извлечь из них максимальную ценность, используя, в частности «озера данных». Вместе с тем, в классическом подходе к работе с Data Lake имеются принципиальные ограничения при централизованном развитии хранилища – чем больше интегрированных систем и данных, тем больше требуется ресурсов на их поддержку и развитие, а значит, возникает больше кросс-зависимостей, что означает лавинообразный рост ответственности для определенных групп сотрудников компании. В итоге, например команда работы с Data Lake, становится бутылочным горлышком процесса доставки данных от источников к потребителям. Решение – распределенная структура управления данными (Data Mesh), позволяющая разделить ответственность: владение данными (генерация, описание, контроль качества, публикация) сосредоточено в бизнес-функциях, а CDO выступает в роли провайдера инструментария хранения, обработки данных, а также методологии управления ими. Доклад посвящен обсуждению опыта развертывания и эксплуатации Data Mesh в компании «Билайн». Особое внимание уделено процессам Data Governance, обеспечивающим взаимодействие между узлами распределенной структуры: внедрение каталога данных, определение ландшафта данных, роли владельца данных, общие политики для всех узлов.
Вернуться
к докладчикам
Александр Соловьев, Росакредитация
Окончил факультет прикладной математики и кибернетики Национального исследовательского Томского государственного университета по специальности «Математические методы в экономике», кандидат физ.-мат. наук. Почти15 лет опыта работы в ИТ-индустрии: Томский государственный университет – заведующий учебной лабораторией информационных технологий и автоматизации учебного процесса; страховая медицинская организация «МАКС-М» – начальник отдела материального и информационно-технического обеспечения, заместитель директора филиала; Департамент экономики Администрации Томской области – председатель комитета сводной работы и мониторинга целевых показателей, заместитель начальника. Сейчас – заместитель руководителя Федеральной службы по аккредитации.
Сервис доступа к государственным данным

Сегодня все больше покупок совершается в Сети – объем Интернет-торговли вырос в 2020 году на 60%, причем основной рост приходится на товарные группы подлежащие обязательной сертификации и декларированию: бытовая техника, одежда и обувь. При приобретении товаров в офлайн покупатель всегда может потребовать сертификат или декларацию у продавца, а для предоставления такой возможности при онлайн-покупках Федеральная служба по аккредитации совместно с бизнесом реализует сервис доступа к документам, подтверждающим безопасность товара, к сведениям о производителе и месте изготовления. Вся эта информация содержится в базах Росаккредитации. Доклад посвящен обсуждению архитектуры сервиса обмена данными между Федеральной службой по аккредитации и бизнесом электронной коммерции. Интернет-магазины смогут получать актуальные данные о документах, подтверждающих соответствие и публиковать ссылки на них в карточке товаров. Особое внимание в докладе уделено возможностям борьбы с контрафактом и способам повышения доверия потребителей к товарам добросовестных продавцов.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта работы в сфере создания систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, эксплуатируемых сегодня на крупных отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий». Сейчас – директор компании «ТриниДата», специализирующейся на реализации проектов создания ИТ-архитектур, интеграции и анализа данных, управления корпоративными знаниями.

Артем Ходяев, «Газпром недра»

Почти 20 лет опыта работы в сфере проектирования и разработки прикладных информационных систем разведки и добычи углеводородов. Автор ряда концептуальных моделей данных для хранения и обработки информации в секторе Upstream. Один из участников создания информационной системы автоматизации деятельности Центра хранения сейсмической информации «НК «Роснефть». Непосредственный участник разработки Концепции единого информационного пространства обращения геолого-геофизической и промысловой информации ПАО «Газпром». Сейчас – зам. начальника Службы информационно-управляющих систем и связи "Газпром недра".
Дата-центрическая архитектура как основа быстрой доставки аналитических данных

Любой корпоративный ИТ-ландшафт образован множеством приложений, имеющих собственные базы данных, содержащие информационные объекты, отражающие бизнес-объекты, события и фазы бизнес-процессов. Как правило, многие объекты бизнес-процессов «отражаются» одновременно в нескольких базах, например, единица оборудования промышленного предприятия описана с разных точек зрения в системах бухучета, управления ремонтами и обслуживанием, управления производством и др.
Для того, чтобы приложения автоматизации различных бизнес-процессов работали вместе, их необходимо интегрировать с помощью решений классов MDM и ESB, однако такая интеграция поглощает ресурсы и редко полностью удовлетворяет потребности бизнеса. Дата-центрическая архитектура позволяет избавиться от всех интеграционных проблем, сделав данные, а не бизнес-приложения центральным элементом корпоративной ИТ-архитектуры. Доклад посвящен обсуждению особенностей реализации такой архитектуры на практике, позволяющей избежать неверных управленческих решений при выборе путей развития корпоративной ИТ-архитектуры, открыть путь к быстрому выполнению запросов бизнеса на создание новых приложений, аналитических представлений и отчетов. Особое внимание уделено анализу инструментов, позволяющих обеспечить непротиворечивость, актуальность и точность корпоративных данных, использовать одни и те же данные для решения разных бизнес-задач.
Вернуться
к докладчикам
Ирина Голощапова, Head of Data Science,«Лента»
Окончила МГУ им. М.В. Ломоносова, к.э.н. Более 10 лет опыта работы в сфере анализа данных и продвинутой аналитики в различных прикладных областях: экономическая политика, финансовый сектор и количественная оценка рисков, ретейл, социально-значимые проекты: X5 Retail Group – количественная оценка рисков и оптимизация бизнес-процессов; Центр макроэкономического анализа и краткосрочного прогнозирования – макроэкономические исследования, статистический анализ и моделирование. Лидер команды Data Science в исследовательской группе Манчестерского Университета, а также лидер по исследованиям в проекте Big Data Indicators оценки высокочастотных индикаторов экономических ожиданий населения на основе больших данных. Сейчас – руководитель отдела Data Science компании «Лента».
В поисках сокровищ в данных: эффективное управление data science

Цифровая трансформация обещает своим последователям несметные горы сокровищ, скрытых в сырых корпоративных данных. Однако ожидания не совпадают с реальностью – около 95% подобных проектов неэффективны, либо не доходят до завершения. На практике большинство проектов — попытка найти сокровища в темной комнате, которая далеко не всегда заканчивается успехом. Гораздо чаще комната оказывается бесконечной или пустой, а иногда сокровища, которые были очень близки, – фальшивыми. Доклад посвящен особенностям организации управления экспертизой Data Science так, чтобы в проектах цифровой трансформации идти только к тем сокровищам, которые стоят внимания и принесут деньги – в комнате с ярко включенным светом.
Вернуться
к докладчикам
Станислав Лазуков, «Ростелеком»
Окончил кафедру экономической кибернетики Пермского государственного университета. Почти 20 лет опыта работы в ИТ-индустрии: построение аналитических решений в банковском секторе (риски, обязательная и управленческая отчетность и др.) на базе платформы бизнес-аналитики Prognoz Platform, руководство направлением систем банковской бизнес-аналитики, контроль реализации ключевых проектов в интересах Департамента финансов и территориальных подразделений Сбербанка (создание аналитических витрин центра хранения данных, формирование управленческой отчетности MIS, реализация системы ключевых показателей эффективности и пр.). Сейчас – директор направления в ПАО «Ростелеком», где отвечает за вывод на коммерческий рынок и продвижение инструментов для работы с большими данными в составе корпоративной платформы управления данными «Ростелеком Бизнес».
Как разглядеть «айсберг» в озере данных

Термин «data-driven» – принятие стратегических решений на основе данных, прочно закрепился в лексиконе менеджеров, однако за простым, на первый взгляд, понятием прячется сложный вопрос выбора соответствующей системы: приобрести готовое решение от вендора, воспользоваться бесплатными наработками сообщества OpenSource или инвестировать в развитие собственной команды, создающей продукты управления данными под запросы компании? Доклад посвящен обзору российского рынка решений управления данными и обсуждению проблем, с которыми сталкиваются разработчики на пути самостоятельного овладения открытыми технологиями. Особое внимание уделено вопросам построения озера данных на базе открытых технологий, особенностям подхода к оценке внутренней стоимости проекта создания и внедрения платформы, а также разбору типичных ошибок и проблем оценки «глазами» менеджера сложной технической задачи, которая потенциально может оказаться «айсбергом» в озере данных.
Вернуться
к докладчикам
Сергей Иванов, «УралХим»
Окончил Финансовую Академию при правительстве РФ. Около 25 лет в ИТ-индустрии – управление корпоративной архитектурой предприятия и данными: ПАО Сбербанк, «Газпром нефть». Сейчас – руководитель Департамента корпоративных данных АО «ОХК «УралХим».
Как данные управляют компанией?

Мир быстро меняется – в условиях перехода экономической деятельности в онлайн и повышения роли проактивности экономические циклы сжимаются. Компании начинают прогнозировать ситуацию на рынке и поведение клиента, в надежде обеспечить принятие правильных управленческих решений и оперативно скорректировать свою стратегию. Данные и модели становятся единственным способом конвертации реальных участников, вещей и событий в цифровой мир. Считается, что чем больше у компании данных высокого качества, тем больше у нее шансов достигнуть успеха. Как следствие, многие компании сегодня собирают новые наборы данных, используют аналитику и технологии искусственного интеллекта, расширив использование как внутренних, так и внешних источников данных в реальном времени. Однако, далеко не в каждой компании сотрудники действительно используют имеющиеся данные в своей повседневной работе. Доклад посвящен обсуждению опыта создания и эксплуатации системы управления компанией на основе данных. Особое внимание уделено обсуждению архитектуры сбора и доставки в реальном времени данных, требуемых каждому сотруднику.
Вернуться
к докладчикам
Светлана Бова, ВТБ
Окончила Московский государственный педагогический университет им. В. И. Ленина. Более 20 лет опыта работы в финансовой индустрии, в сфере управления данными и аналитики: НПФ «Промрегионсвязь» – менеджер по продажам; «Газпромбанк» – сотрудник управления сопровождения операций юридических лиц, финансовый аналитик инвестиционного блока; ЗАО «Неофлекс Консалтинг» — заместитель директора департамента аналитики по направлению «Хранилища данных и аналитические приложения»; «Р-Стайл Софтлаб» – заместитель директора департамента аналитических систем; ПАО «Росбанк» – руководитель департамента аналитических систем. Сейчас — CDO, Управляющий директор – вице-президент, Департамент ИТ-архитектуры, «Банк ВТБ» (ПАО).
Карты потоков данных – примеры использования

Ландшафт любой финансовой организации федерального масштаба включает множество различных информационных систем, оперирующих огромными массивами данных: сотни тысяч таблиц, миллионы полей, разнообразные структуры, форматы и источники метаданных. Ориентироваться в таком пространстве сложно и чтобы найти нужный элемент данных требуется тратить массу времени на изучение документации и опросы сотрудников. Для работы в подобном ландшафте необходим специальный инструментарий по визуализации – DataLineage (карты потоков данных), позволяющий сотрудникам искать требуемую достоверную, непротиворечивую и актуальную информацию. Доклад посвящен обсуждению примеров использования в банке инструментария DataLineage, позволившего сократить затраты на анализ и разработку за счет облегчения поиска данных. Особое внимание уделено обсуждению особенностей формирования карт потоков данных в автоматическом режиме, что позволяет минимизировать затраты на рефакторинг ETL, снизить риски при регресс-тестировании и обеспечить прозрачность визуализации пути прохождения данных от момента их появления до конечного потребителя по цепочке ИТ-систем.
Вернуться
к докладчикам
Андрей Андриченко, «ЭсДиАй Солюшен»
Окончил Московский технологический институт (МТИ), к.т.н. в области САПР технологических процессов. Более 30 лет опыта работы в ИТ-индустрии: руководитель отдела САПР в НИИ авиационных технологий (НИАТ); руководитель технологического направления в компании «Аскон». Три поколения созданных за время работы САПР, используются сегодня на сотнях промышленных предприятий России. Руководил проектом по созданию отечественной MDM-системы («Сколково»). Сейчас – советник генерального директора АО «ЭсДиАй Солюшен», отвечая за продвижение MDM в крупных промышленных холдингах и корпорациях.
MDM: основа цифровой трансформации бизнеса и госуправления

Обозначение одного и того же информационного объекта в различных прикладных системах может отличаться, что приводит к дублированию мастер-данных и необходимости синхронизировать различные базы данных. Требуются справочники корпоративного уровня, созданные с учетом отраслевых, государственных и международных стандартов. Доклад посвящен проблеме создания и ведения таких справочников. Особое внимание уделено вопросам создания единой унифицированной терминологии для однозначного описания классов и идентификации характеристик продукции, для обеспечения возможности свободного обмена сведениями между различными информационными средами, работающими с корпоративными мастер-данными в различных контекстах.
Вернуться
к докладчикам
Александр Погосьян, Сбер
Окончил Военно-воздушную инженерную академию им. Н.Е.Жуковского. Более 20 лет опыта работы в ИТ-индустрии: начальник отдела аналитики в Департаменте собственных продуктов компании «Астерос»; менеджер проектов в компании Deloitte; операционный директор в нишевой консалтинговой компании. За время работы прошел путь от разработчика автоматизированных систем до руководителя, создав несколько подразделений «с нуля» и обеспечив их становление, а также выполнив множество проектов, в частности: внедрение MDM, создание объединенных центров обслуживания, внедрение ERP-систем в различных индустриях. Сейчас – исполнительный директор по направлению «Качество данных» в ПАО «Сбербанк».

Алексей Калинов, Сбер

Окончил Волжскую государственную академию водного транспорта. Более пяти лет опыта работы в сфере управления качеством данных, пройдя путь от специалиста до руководителя команды, создав команду разработки проверок качества данных и внедрив ряд инструментов контроля качества данных. Сейчас – руководитель направления, владелец продукта «Инструменты контроля качества данных» в ПАО «Сбербанк».
Стратегия и инструменты управления качеством данных

Обеспечения качества данных в крупных организациях стало сегодня критически важным для обеспечения успеха любой инициативы бизнеса, связанной с данными. На это влияет наличие регуляторных требований, активное развитие систем искусственного интеллекта и инструментов принятия решений, объемы внутренней и внешней отчетности. Стратегия обеспечения качества неразрывно связана с другими процессами управления данными. Также существенную роль играют инструменты обеспечения качества данных, их взаимосвязи с другими инструментами платформы управления данными. В условиях, когда объемы данных растут, а экспертиза по данным распределена по организации, возникает потребность в реализации инструментов самообслуживания и обеспечении соответствующих процессов. В докладе рассмотрены вопросы разработки и реализации стратегии управления качеством данных, предложены пути их решения и разобраны практические кейсы.
Вернуться
к докладчикам
Максим Озеров, Navicon
Окончил НИУ ВШЭ, Норвежскую школу экономики и Венский университет экономики и бизнеса. Более 10 лет опыта работы ИТ-индустрии. Ведет и курирует проекты внедрения и развития корпоративных платформ данных, помогает компаниям выстраивать культуру данных и получать ценность от накапливаемых знаний. Обладает опытом успешного выполнения проектов для крупных международных и отечественных компаний розничной торговли и фармацевтики. Сейчас – директор проектов по аналитике в компании Navicon.
MIS – информационная система для data-driven компаний

Корпоративные хранилища данных давно и успешно применяются как отечественными, так и зарубежными компаниями. На повестке дня сегодня вопрос – что таким компаниям надо сделать дальше, чтобы перейти от простого накопления данных к их использованию во всех аспектах бизнеса? Такой шаг – это построение системы Management Information System (MIS). Как MIS может стать платформой для развития культуры работы с данными в компании? Что нужно для реализации такой системы? Какие технические, организационные и методологические сложности могут возникнуть на этом пути и как их обойти? Доклад посвящен ответам на эти и другие вопросы.
Вернуться
к докладчикам
Михаил Петров, Счетная палата РФ
Окончил МФТИ, Школу Бизнеса при МФТИ и University of Wolverhampton (Англия), а также прошел подготовку для руководителей высшего звена по программе «Руководитель цифровой трансформации». Более 20 лет в ИТ-индустрии: компания «Финансовые и бухгалтерские консультанты» (ФБК/PKF), PricewaterhouseCoopers, i2, Оргкомитет «Сочи 2014», где прошел путь от руководителя Управления ERP до директора Технологического Операционного Центра, отвечая за поддержку всех технологических сервисов для десятков тысяч пользователей на всех объектах Игр. В Минкомсвязи РФ руководил программой подготовки к Чемпионату Мира по футболу 2018 года. Принимал участие в создании Проектного офиса Национальной Технологической Инициативы (НТИ). На позиции директора по управлению проектами цифровой трансформации ВТБ работал над организацией корпоративного акселератора и организацией инвестиций в финтех-проекты. Сейчас в Счетной палате Российской Федерации организует аналитическую работу с данными в области государственного аудита и контроля. Преподает в ведущих ВУЗах страны, соавтор учебников и монографии.

Юлия Барышева, АПУД

Ассоциация профессионалов управления данными (АПУД).
Опыт проектирования и развертывания системы управления данными

В федеральных органах исполнительной власти России активно внедряются цифровые технологии, появляются новые источники и наборы данных. Сотни инспекторов Счетной палаты Российской Федерации уже сейчас используют данные из более 600 различных информационных систем сторонних организаций, и их количество постоянно растет. В этих условиях Счетная палата нуждается в комплексной системе управления данными. В докладе раскрыт опыт, который получил Департамент цифровой трансформации Счетной палаты в ходе внедрения такой системы: как и из кого сформирована единая команда по работе с данными, как организованы процессы работы, какие технические инструменты применяются, как они интегрированы в системный ландшафт организации, как организована подготовка персонала.
Ассоциация профессионалов управления данными в свою очередь подчеркивает в своем выступлении важную роль профессионалов и экспертов в данных и кадровом голоде в сфере управления данными. В докладе приводятся результаты проведенных под эгидой АПУД открытых семинаров по темам Data Governance, отражающих текущую ситуацию с организацией управления данными в различных компаниях и организациях, работающих в России.
Вернуться
к докладчикам
Сергей Шестаков, ГК «Luxms»
Окончил «Санкт-Петербургский политехнический университет Петра Великого», к.т.н. Около 30 лет опыта в ИТ-индустрии – системное администрирование и управление данными: «Промстройбанк»; «ВТБ». Руководил масштабными международными проектами по разработке прикладного программного обеспечения. Соавтор архитектуры ряда подсистем российской аналитической платформы Luxms BI; курировал проекты внедрения этой платформы в ПАО «Ростелеком», ОАО «Мегафон», Комитете по здравоохранению Правительстве СПб, НМИЦ им. В.А. Алмазова. Сейчас – генеральный директор ГК «Luxms».

Дмитрий Дорофеев, ГК «Luxms»

Окончил «Санкт-Петербургский политехнический университета Петра Великого». Более 25 лет опыта работы в ИТ-индустрии. Разработал систему анализа финансовых институтов на основе балансовых отчетов и нормативов Центрального банка, которая в дальнейшем использовалась для принятия решений по межбанковскому кредитованию. Автор кода аналитического ПО для платформы Luxms BI. Имеет опыт развертывания аналитических решений на многоузловых конфигурациях, включая кластеры ClickHouse, Greenplum и PostgreSQL. Сейчас – главный конструктор ГК «Luxms».
Высокоскоростной инструмент подготовки аналитических витрин

Задача аналитики на больших данных, поступающих из множества внешних и внутренних источников, обладающих различными структурами и схемами индексации, усложняется необходимостью визуализировать их в реальном времени для тысяч одновременно работающих пользователей. В результате, как показывает практика, для многих крупных инсталляциях систем бизнес-аналитики наблюдается резкое снижение быстродействия. Одним из решений может быть многоуровневая оптимизация: во-первых, оптимизация ETL-алгоритмов и создание горячего слоя хранения; во-вторых, оптимизация исполнения бизнес-логики за счет дата-центрической архитектуры сервера визуализации. Доклад посвящен обсуждению архитектуры и возможностей продукта Luxms Data Boring, позволяющего на реальных задачах в разы ускорить подготовку аналитических витрин по сравнению с традиционным способом – формирования витрин на стороне корпоративного хранилища и озера данных. Особое внимание уделено возможностям интеграции продукта с системами управления данными, в частности, использующими технологии искусственного интеллекта, на примере Informatica Data Catalog и библиотек AI/ML на примере Greenplum MADlib.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.

Александр Прохоров, Denodo

Около 30 лет опыта работы в ИТ-индустрии: начинал карьеру программистом в НИИВЦ МГУ, работал в крупных Российских системных интеграторах, а затем в представительствах компаний Veritas, Symantec, Informatica и Riverbed. Сейчас – директор по продажам Denodo в России.
Одна логическая платформа для всех данных

Концепция управления данными на логическом уровне без их физического сбора в единый репозиторий набирает сегодня популярность при построении Logical Data Fabric, Data Mesh, гибридных и мультиоблачных инфраструктур. Доклад посвящен обсуждению особенностей построения единой Логической платформы для управления всеми данными компании вне зависимости от их географического положения, применяемых технологий, производительности обработки и скорости доступа.
Вернуться
к докладчикам
Алексей Сидоров, Denodo
Почти 30 лет в ИТ-индустрии, начав свою карьеру в Международной Инженерной Академии с построения объемной модели зоны радиационного загрязнения Чернобыльской аварии. До прихода в Denodo создавал и управлял платформами интеграции данных в масштабах предприятия для таких корпораций, как Nokia и Deutsche Bank. В течение 15 лет помогал многим компаниям на трех континентах в цифровой трансформации бизнеса с использованием передовых технологий от Teradata и Informatica. Сейчас – главный Евангелист компании Denodo и директор по управлению данными.

Иван Кириленков, Denodo

Технический директор компании Denodo.
Глобальная ролевая модель доступа к данным на базе логической фабрики данных

C ростом объемов и разнообразия типов источников данных все более актуальной становиться задача централизованного управления доступом. Применение технологии Виртуализации данных позволяет ограничивать параметры видимости отдельных наборов данных, строк и столбцов, применять алгоритмы динамического маскирования «на лету» в зависимости от пользовательских ролей и глобальных политик безопасности. В докладе обсуждаются принципы построения Глобальной ролевой модели доступа к данным на базе архитектуры Logical Data Fabric, а также анализируются результаты конкретных внедрений.
Вернуться
к докладчикам
Владислав Набоков, «Сбербанк страхование жизни»
Окончил Физико-технический факультет Санкт-Петербургского политехнического университета по специальности Техническая физика/Физика и техника полупроводников. Более 15 лет опыта работы в ИТ-индустрии – руководитель ИТ-блоков в страховых компаниях «Русский мир», «Росгосстрах», «Гута-Страхование» и «ВТБ Страхование жизни». Сейчас – директор по технологиям «Сбербанк страхование жизни».

Ольга Позднякова, HFLabs

Около 15 лет опыта работы в ИТ-индустрии. Сейчас – директор по страховым проектам HFLabs, где отвечает за направление работы со страховыми компаниями.
Зачем и как внедрять систему управления данными о клиентах

.
Вернуться
к докладчикам
Руслан Трачук, «Юнидата»
Окончил СПбПУ по специальности «Информационная безопасность». Более 20 лет опыта работы в сфере разработки ПО, например в компании «Рексофт» специализировался на создании продуктов по заказам западных клиентов рынка телекоммуникаций. Сейчас – технический директор в компании «Юнидата», где отвечает за разработка платформы управления данными и продуктов на ее основе.

Александр Константинов, «Юнидата»

Окончил факультет международных отношений СПбГУ по специальности мировая политика. Более 20 лет опыта работы в области медиатехнологий: руководство студии по производству видеоконтента Voda, автор ряда передач для каналов ТНТ и MTV, а также сценариев для программ на федеральных телеканалах НТВ и РТР. Работал главным редактором отдела газеты «Московский комсомолец», а также занимался продвижением на рынок российско-немецкого концерна A+S и транспортной компании «Газелькин». Сейчас – директор по маркетингу компании «Юнидата».
Система очистки озера данных

Компании и предприятия все чаще отдают предпочтение озерам данных, а не классическим хранилищам. Однако, несмотря на кажущуюся простоту идеи и заманчивые перспективы, применяемые обычно для работы с озером технологии не снимают главного вопроса, возникающего при работе с данными – доверия к содержимому озера, на основе которого могут приниматься критически важные для бизнеса решения. Чрезвычайно важно уметь оценивать качество данных в озере. В докладе разбирается проблема обеспечения качества данных в озере и анализируются возможности соответствующих систем, использующих техники и инструменты поддержки качества данных, выходящие за пределы типичного набора и переводящие задачу очистки на уровень руководства данными.
Вернуться
к докладчикам
Юрий Буйлов, СберАвто
Окончил Военную академию воздушно-космической обороны им. Маршала Советского Союза Г.К. Жукова по специальности "Вычислительные машины комплексы системы и сети". Около 20 лет в ИТ-индустрии: разработка и интеграция архитектур распределенных высоконагруженных систем, руководство многофункциональными командами разработчиков, внедрение практик DevSecOps и подхода Data Driven: CarPrice – руководитель отдела разработки, «Яндекс» – руководитель группы монетизации, Auto.ru – руководитель команды разработчиков, imhonet.ru – бэкенд-разработчик. Сейчас – технический директор в компании СберАвто, где отвечает за стратегию технического развития, процессы и применение практик управления разработкой и данными.

Константин Ключников, СберАвто

Окончил МГУ им. М.В. Ломоносова, факультет Вычислительной Математики и Кибернетики, затем работал в Институте проблем управления им.В.А. Трапезникова, к.физ.-мат. наук по специальности "Системный анализ, управление и обработка информации". Начал карьеру в компании МегаФон, где прошел путь от маркетинг-аналитика до руководителя направления больших данных, затем работал в компании Вымпелком – руководитель клиентской аналитики. Затем продолжил карьеру в компании CarPrice, где запустил процессы построения моделей предиктивной аналитики, позволившей на 10% увеличить прибыль. Сейчас – CDO в компании СберАвто, где отвечает за стратегию формирования данных в централизованном источнике, включая корректность данных, их целостность и доступность. Ведет проекты Data Quality, Master Data Management и Meta Data Management. Отвечает за интеграцию данных с системами дочерних компаний банка, включая скоринговые модели и обогащение данных (Data Enrichment).
Референтные модели управления данными

Модели обучения призваны оптимизировать ресурсы компании для улучшения ее финансовых показателей, обнаружить важные инсайты, влияющие на бизнес и использовать их как дополнительные возможности для его роста. Референтными моделями могут быть нейросети, деревья решений и модели имитационного моделирования, позволяющие сфокусироваться на наиболее важных аспектах бизнеса и обеспечить его поступательный рост. Доклад посвящен обсуждению процессов и технологий управления жизненным циклом данных и обеспечения их качества. Особое внимание уделено анализу особенностей внедрения принципов демократизации и итеративности данных для обеспечения бизнесу непрерывных поставок продуктовой ценности.
Вернуться
к докладчикам
Варвара Макарьина, «Балтика»
Окончила РГУ нефти и газа (НИУ) имени И.М. Губкина. Работала в ЦОД Linxdatacenter, затем в ООО «Пивоваренная компания «Балтика». Восемь лет опыта в сфере бизнес-аналитики и формирования отчетности. Сейчас– менеджер по развитию аналитических систем отвечая за реализацию стратегии Data Governance, участие в развитии направлений Data Catalog & Data Quality, обучение сотрудников принципам управления данными и их практическому применению.
Каталог данных: предпосылки создания и реализация

Объем данных, ежедневно создаваемый и обрабатываемый современными предприятиями непрерывно растет, что делает необходимым выстраивание и реализацию стратегии Data Governance, позволяющую повышать доверие пользователей к данным, разрабатывать понятные ролевые модели распределения ответственности для получения уверенности в актуальности и полноте используемых данных. Для реализации такой стратегии в службе Supply Chain компании «Балтика» был создан Каталог данных (Data Catalog) – система, связывающая источники данных, их компоненты и метаданные; учитывающая специфику архитектуры информационной системы компании, а также позволяющая масштабировать решение на все функции компании и страны ее присутствия в составе группы Carlsberg Group. Доклад посвящен описанию Data Catalog, обсуждению возможностей, в том числе с точки зрения конечного бизнес-пользователя. Особое внимание уделяется преимуществам работы с использованием Data Catalog и особенностям реализации принципов управления данными: описание (наличие бизнес-глоссария) и владение (ролевая модель ответственности).
Вернуться
к докладчикам
Алевтина Тинас, Tele2
Окончила Липецкий государственный технический университет по специальности «Автоматизированные системы управления». Около 20 лет опыта работы в ИТ-индустрии, из них 12 лет в области управления данными: создание корпоративной аналитической системы в компании «Фольксваген Банк РУС»; развитие системы управления корпоративными данными компании СИБУР. Сейчас – руководитель департамента по управлению данными в компании Tele2, где отвечает за реализацию стратегии развития платформы данных, а также инструменты и процессы управления данными.

Маргарита Волкова, Tele2

Окончила НИУ ВШЭ, магистр экономики. Около 10 лет опыта работы в международной консалтинговой компании в области трансформации финансовой функции, где участвовала в различных проектах по внедрению ИТ-систем и кросс-функциональных процессов. Сейчас – менеджер по процессам управления данными в компании Tele2, где отвечает за развитие инструментов и процессов управления данными.
Как повысить грамотность работы с данными

Появление нового всегда пугало людей – доля новаторов и ранних последователей среди пользователей традиционно мала, несмотря на ускорение развития технологий и разговоры про массовую цифровизацию. Большинство пользователей – это позднее большинство, которое не торопится внедрять в свою практику новые методы работы с информацией. Компания может потратить много сил и ресурсов на внедрение новых технологий, но пользователи продолжат использовать привычные инструменты и саботировать предлагаемые изменения. Для того чтобы в компании сформировалась культура работы с данными (Data-driven) важна не столько технологическая трансформация, а изменение устоявшейся бизнес-модели с целью преодоления сопротивления «делаем, как всегда делали» и принятия культуры работы с данными. Как удовлетворить интересы всех пользователей? Как убедить сотрудников свернуть с протоптанной дорожки и повысить интерес к данным? Как стать «Data-driven», а не буксовать на месте? Доклад посвящен ответам на эти и другие вопросы, связанные с повышением грамотности в использовании данных (Data literacy) и формированием культуры работы с ними.
Вернуться
к докладчикам
Юрий Кротков, «Яндекс.Маркет»
Окончил Московский автомобильно-дорожный государственный технический. Почти 10 лет опыта управления проектами как со стороны заказчика, так и со стороны исполнителя. Пять лет опыта создания и развития внешних и внутренних ИТ-продуктов. Имеет опыт работы в фулфилмент-центрах, НИИ Почтовой Связи и нескольких стартапах. Сейчас – менеджер проектов в «Яндекс.Маркет», где отвечает за развитие корпоративной системы MDM и внедрение системы управления качеством данных.

Сергей Васильчиков, «Яндекс.Маркет»

Окончил Ковровскую государственную технологическую академию по специальности «Системы автоматизированного проектирования», кандидат технических наук. Более 20 лет опыта работы в ИТ-индустрии, 13 из них – в области управления данными. Участвовал в проектах по внедрению и созданию систем управления мастер-данными, Data Quality, Data Governance для компаний и предприятия нефтегазового сектора, финансовой индустрии, государственного сектора и ряда других. Возглавлял подразделение Data Management в компании SAS. Сейчас – руководитель проектов управления мастер-данным и качеством данных в компании «Яндекс.Маркет».
Управление качеством мастер-данных в электронной коммерции

В отличие от традиционной розничной торговли, где клиент может «потрогать руками» товар, на цифровых площадках электронной коммерции потенциальному покупателю доступен лишь цифровой двойник товара – для успеха бизнеса качество данных о товарах становится критически важным фактором. Доклад посвящен анализу опыта внедрения системы управления качеством данных в «Яндекс.Маркет», разбору особенностей задачи управления данных для торговых площадок и важности управления качеством данных. Особое внимание уделено проблемам перехода от реактивного к проактивному подходу решения задач управления качеством данных, анализу технологических особенностей системы управления качеством данных и планах «Яндекс.Маркет» по развитию решения организации работы с мастер-данными и процессов Data Governance.
Вернуться
к докладчикам
Иван Вахмянин, Visiology
Окончил МИФИ по специальности «Информационное обеспечение экономических процессов», аспирантуру Российской академии государственной службы при президенте РФ по специальности «Информационные технологии в управлении» и Московскую школу управления «Сколково». Почти 15 лет в опыта работы ИТ-индустрии – эксперт в сфере разработки ПО для анализа и визуализации данных. Сейчас – генеральный директор компании Visiology, где руководит созданием и развитием аналитической платформы бизнес-аналитики.
Роль методологии при внедрении управления на основе данных

Управление на основе данных (data-driven) – это уже не роскошь, а необходимость для организаций любого масштаба и отраслевой принадлежности. Однако, внедрение такого управления – сложный проект, затрагивающий все аспекты деятельности организации: управленческие практики, бизнес-процессы, технологии, оргструктуру и, конечно, культуру. Любой инициатор подобного проекта должен найти ответы на следующие вопросы: Как убедить основных стейкхолдеров поддержать проект по внедрению управления на основе данных? Как сделать первый шаг и быстро получить осязаемый результат? Как эффективно спланировать проект и минимизировать риски? Конечно, всегда можно попробовать реализовать такой проект "наудачу", а можно опереться на опыт уже выполненных проектов бизнес-аналитики, использовать имеющиеся практики и рекомендации, которые помогут сэкономить и время, и нервы. Доклад посвящен обсуждению методологии внедрения проектов бизнес-аналитики – неотъемлемой части управления на основе данных, разработанной на основе синтеза практического опыта, признанных мировых практик и методик. Основу методологии составляют: рекомендации, шаблоны документов, калькулятор экономической эффективности, карта технологий, примеры управленческих витрин и многое другое.
Вернуться
к докладчикам
«Объединённая двигателестроительная корпорация»
Секреты управления мастер-данными

Проблема создания и ведения справочников корпоративного уровня выходит далеко за рамки отдельных компаний и должна решаться с учетом отраслевых и государственных стандартов. Организация взаимодействия множества субподрядчиков, поставка и продвижение продукции на различных рынках невозможны без формирования единых принципов унификации описания информационных объектов на основе гармонизированных стандартов.
Организация мастер-данных данных может ориентироваться на методологию технических словарей – Open Technical Dictionary (OTD), разработанных с учетом специфики российской терминологии и в соответствии с методикой стандарта ГОСТ ИСО 22745 «Системы промышленной автоматизации и интеграция. Открытые технические словари и их применение к основным данным». Доклад посвящен анализу опыта применение единой унифицированной терминологии при управлении мастер-данными для однозначного описания классов, идентификации изделий и компонентов, независимо от информационных систем их описывающих.
Вернуться
к докладчикам
Яна Соколова, «Объединённая двигателестроительная корпорация»
Закончила Московский государственный технологический университет «Станкин» по специальности «Технология машиностроения», около 10 лет опыта работы в ИТ-индустрии. Специализируется на комплексных системах автоматизации технологической подготовки производства: САПР ТП, электронные заказы на проектирование и изготовления средств технического оснащения, электронные заявки на покупные средства технологического оснащения и др. Сейчас – руководитель проекта внедрения MDM-системы в АО «ОДК».
Совершенствование процессов управления нормативно-справочной информацией

Внедрение MDM на промышленном предприятии, а тем более в распределенном холдинге, – крупный проект, предусматривающий многоэтапное решение множества задач. Для АО «ОДК» такой проект начался с организации информационного обеспечения инженерных подразделений, что и было сделано. Далее функциональными заказчиками MDM-системы стали подразделения коммерческого контура – только после сведения НСИ из этих двух контуров в одной системе, компания стала получать эффект от проекта MDM: формирование качественной потребности в ТМЦ (товарно-материальные ценности) и оценки обеспеченности этой потребности и, как следствие, сокращение издержек на ТМЦ, а также снижение себестоимости продукции. Этап масштабирования системы – от внедрения MDM на одной производственной площадке проект распространился на все предприятия холдинга и его дочерних обществ. Сейчас в стадии реализации находится проект интеграции MDM-системы с информационными системами на уровне ГК «Ростех». Доклад посвящен анализу опыта эксплуатации системы MDM – формирование потребности/обеспеченности на основе централизованной нормативно-справочной информации.
Вернуться
к докладчикам
Роман Шемпель, IBM Russia
Почти 20 лет опыта работы в ИТ-индустрии: провайдеры телекоммуникационных услуг, поставщики специфичных для телекома решений, в частности, аналитических систем. Сейчас – эксперт по управлению данными в IBM Russia, где отвечает за работу с партнерами и решения по управлению данными.
DataOps – управление данными как процесс

Построение работы с данными в организации – это процесс, на разных стадиях которого решается множество задач, начиная от методологии до выбора инструментария и формирования культуры работы с данными. Решение каждой из таких задач требует ответов на множество вопросов. Как методология отражается на инструменте? Как из системы Data Governance получить пользу для конечных потребителей? Как управление данными влияет на конечный результат работы с данными для организации? Как организовать выбор инструментов для поддержки цикличного анализа данных – неотъемлемой части процесса управления корпоративными данными? Доклад посвящен ответам на эти и другие вопросы. Основное внимание уделено выбору инструментария, включающего в себя все необходимые элементы методологии DataOps.
Вернуться
к докладчикам
Анна Дудина, IDS Borjomi International
Окончила магистратуру Белгородского государственного технологического университета по направлению «Программное обеспечение интеллектуальных систем» и Summer school for CDO (by Caroline Carruthers and Peter Jackson, London). Почти 10 лет опыта работы в сфере управления мастер-данными в международных компаниях фармацевтического, агропромышленного секторов, а также корпораций, работающих на рынке товаров повседневного спроса. Сейчас – руководитель подразделения управления MDM (Global head of master-data management) в группе компаний IDS Borjomi International, отвечая за проектирование и реализацию систем наполнения справочников, а также за управление на уровне корпорации пулом функций управления данных.
Совет по управлению данными

По мере развития организации ее инициативы по управлению данными сталкиваются с ситуацией, когда имеется понимание ценности управления данными, налажена работа с метаданными, развернута система управления качеством данных и внедряется продвинутая аналитика, однако отсутствует единая стратегия развития на уровне группы компаний. На этом этапе требуется подумать о создании комитета по управлению данными. Так в IDS Borjomi International было принято решение о создании Совета, отвечающего за все процессы управления данными в корпорации: построение системы управления данными, сопровождение и развитие функций и доменов данных, в том числе и мастер-данных. Такой Совет может исполнять функции на всех доменах системы управления данными. В докладе рассмотрены функции Совета, анализируется опыт его работы и демонстрируется его интегрирующая роль в функционировании предприятия, управляемого данными. Особое внимание уделено обсуждению стратегической задачи Совета как управляющего органа, формирующего единый взгляд на развитие функции управления на всех уровнях руководства корпорации, включая и акционеров.
Вернуться
к докладчикам
Валерий Артемьев, Банк России
Окончил МГТУ им. Н.Э.Баумана, более 40 лет в ИТ-индустрии. Проходил стажировку по банковским системам (Великобритания) и повышал квалификацию по управлению данными в IBM (США, Германия). С 1993 года работает в Банке России, где планировал и руководил проектами по веб-приложениям, XML-форматам сбора отчетности, хранилищам данных и бизнес–аналитике, а также управлению метаданными. Разрабатывал архитектуру решений централи¬зованных прикладных систем, участвовал в создании систем блока банковского надзора: ЕИСПД для монито¬рин¬га и анализа деятельности кредитных организаций; АКС для анализа платежной информации. Сейчас работает в Центре управления данными, Департамент управления данными Банка России.
Технологии управления данными

Множеству функциональных секторов управления данными сегодня соответствует весьма внушительный технологический стек, поэтому в докладе дается обзор по укрупненным горизонтальным слоям:
  • анализ данных;
  • интеграция данных и интероперабельность;
  • управление качеством данных;
  • операции и хранение данных, документов и контента.
Рассмотрены также всеохватывающие вертикальные слои:
  • стратегическое управление данными (Data Governance);
  • управление метаданными;
  • информационная безопасность.
В докладе разбирается текущее состояние технологий управления данными и анализируются тенденции развития вовлеченных технологий, а также приводятся примеры конкретных инструментов и платформ.
Особо отмечается конвергенция технологий, затрудняющая их строгую классификацию и структуризацию.
.
Вернуться
к докладчикам
Полина Минеева, Accenture
Окончила НИУ «Высшая школа экономики». Около 10 лет опыта в ИТ-сфере, начав карьеру с проектов по внедрению систем бизнес-аналитики и созданию хранилищ данных для государственных институтов и коммерческих предприятий. Более пяти лет работает в ИТ-консалтинге, где принимала участие и руководила проектами по внедрению инструментов работы с данными и управлению НСИ, созданию стратегий данных, а также разработке ИТ-решений с использованием продвинутой аналитики. Сейчас – в Accenture Strategy & Consulting представляет практику Applied Intelligence в части предоставления услуг ретейлерам и производителям товаров повседневного спроса.
Управление данными: вчера, сегодня, завтра

Управление данными стало сегодня ключевым процессом даже для предприятий самых консервативных отраслей экономики. В период санитарного кризиса многие компании за несколько месяцев прошли путь, который продлился бы несколько лет – некоторые осуществили переход от традиционных хранилищ данных к гибким микросервисным архитектурам и облачным технологиям; заменили ручной мэппинг данных из унаследованных систем автоматизацией на базе интеллектуального управления данными (Intelligent Data Management). Компании перестали лишь собирать и агрегировать всевозможную информацию, а сосредоточились на рациональном потреблении данных. Доклад посвящен обсуждению комплексного подхода к изменению операционной модели и инструментария управления данными. Особое внимание уделяется ключевым факторам, которые оказывали влияние вчера, актуальны сегодня и будут завтра определять работу CDO.
Вернуться
к докладчикам
Нина Полянская, ЕВРАЗ
Окончила Государственный Университет по землеустройству, около 10 лет опыта в ИТ-индустрии: управление нормативно-справочной информацией и ее применение в области автоматизация процессов снабжения. ПАО «Роснефть»: руководитель группы, руководитель проектов, методолог – проект «Развитие корпоративного справочника материалов для процессов МТО на базе SAP», проект «Модификация корпоративного функционального классификатора для управленческой отчетности», проект «Создание и внедрение решения по управлению опросными листами и техническими требованиями для процессов МТО», целевой инновационный проект «Разработка системы типового проектирования Компании». Сейчас – главный менеджер Дирекции по снабжению компании ЕВРАЗ, где отвечает за направления развития НСИ и управление данными.
Единая платформа управления справочниками

Когда компании работают с разрозненными, не синхронизированными справочниками с данными низкого качества говорить о цифровизации не приходится. Ситуацию усугубляют высокие трудозатраты на обработку и поиск требуемых справочных сведений. Два года назад в ЕВРАЗ было принято решение о выполнении проектов внедрения единого справочника контрагентов и единого справочника ТМЦ. На базе продукта SAP MDG сегодня обеспечивается ведение Единого справочника сбытовой номенклатуры и Единого справочника контрагентов/грузополучателей. В перспективе планируется запуск в опытно-промышленную эксплуатацию Единого справочника товарно-материальных ценностей, а также развертывание централизованного каталога услуг. Доклад посвящен анализу опыта создания единого справочника контрагентов и единого справочника ТМЦ: предпосылки проекта, эффект от внедрения, проблемы и ошибки.
Вернуться
к докладчикам
Михаил Александров, «Полиматика»
Более 20-ти лет работы в ИТ-индустрии – из них больше половины в области аналитики: Tops Business Integrator, BearingPoint, Teradata, SAS. Отвечал за разработку и внедрение систем управления эффективностью, продвинутой аналитики, анализа и отчетности, а также инструментов интеграции, управления качеством данных и НСИ в интересах производственных и финансовых корпораций. Сейчас – технический директор по продукту Polymatica ML, российской платформы машинного обучения полного цикла.
Управление данными в эпоху машинного обучения

В большинстве компаний уже внедрены и успешно эксплуатируются классические процессы управления данными, ориентированные на поддержку формирования отчетности, расчет различных KPI и анализ данных с использованием инструментов бизнес-аналитики. Одновременно с этим все шире применяются модели машинного обучения и системы искусственного интеллекта, что предъявляет новые требования к процессам управления данными. Для успешного построения ML-моделей требуются методы и инструменты, позволяющие оперативно оценить пригодность данных для моделирования, а также протестировать различные гипотезы и сценарии применения моделей. Однако, для обеспечения эффективной работы моделей машинного обучения требуется не только контролировать качество данных на основе классических бизнес-правил, но и проактивно отслеживать изменения профиля данных, контролировать точность моделей, а также оценивать влияние изменения характера данных на применяемые модели и метрики качества. Доклад посвящен обсуждению особенностей управления данными для задач машинного обучения, а также соответствующих возможностей платформы Polymatica ML.
Вернуться
к докладчикам
Александра Аронова, АО «ГЛОНАСС»
Около 20 лет в ИТ-индустрии: Минкомсвязь России, где, в том числе, обеспечивала деятельность ведомства по регулированию отношений, связанных с обработкой персональных данных; ПАО «Ростелеком» – директор департамента по взаимодействию с органами государственной власти, где курировала вопросы нормативного обеспечения создания и функционирования Единой биометрической системы. Сейчас – заместитель Генерального директора АО «ГЛОНАСС», где отвечает за нормативное обеспечение цифровой трансформации транспортной отрасли, включая обработку данных мониторинга пассажирского транспорта и грузоперевозок.
Эшелоны управления и интеграции данных

.
Вернуться
к докладчикам
Олег Гиацинтов, DIS Group
Закончил МГТУ им. Н.Э.Баумана. Почти четверь века в ИТ-индустрии, из которых почти 20 лет – руководство ИТ-проектами. Работал в компаниях ЛАНИТ, АВТОМИР и Xerox. Эксперт в области стратегического управления и интеграции данных, обеспечения качества и управления нормативно-справочной информацией (мастер-данными), управления знаниями, а также построения дата-центрических бизнес-процессов. Сейчас – технический директор компании DIS Group, где отвечает за консалтинг, обучение партнеров и клиентов, а также руководит техническими специалистами и собственными разработками компании.
Управление критически важными данными

Управление данными предполагает наличие всеобъемлющей информации о них, зафиксированной в регламентах и политиках, учтенной в ролях и бизнес-процессах. При этом особенно важно иметь понимание об уровне качества и защищенности критически важных для компании данных. Доклад посвящен обсуждению особенностей организации эффективного управления критически важными корпоративными данными.
Вернуться
к докладчикам
Сергей Золотарев, Arenadata
Окончил МГТУ им. Н.Э. Баумана и Open University of London (MBA). Около 30 лет опыта работы в ИТ-индустрии: EMC, Jet, Avaya, Microsoft и Compaq. Возглавлял представительство компании Pivotal в России, СНГ и Восточной Европе, где руководил проектами в области управления большими данными – инициировал проект разработки универсальной открытой платформы данных, результатом которого стал, в частности, продукт Arenadata Hadoop, сертифицированный Linux Foundation. Основатель компании Arenadata, специализирующейся на разработке открытой платформы сбора и хранения данных. Сейчас – генеральный директор и управляющий партнер компании "Аренадата Софтвер".
От собственного дистрибутива Hadoop к высокотехнологичной экосистеме

.
Вернуться
к докладчикам
Александр Скоробогатов, Micro Focus
Окончил Тверской Государственный Технический Университет. Более 20 лет опыта работы в ИТ-индустрии. Карьеру начал с разработки систем мониторинга и нагрузочного тестирования, имеет богатый опыт проектирования и администрирования хранилищ данных, а также развития вычислительной инфраструктуры ЦОД. Принимал участие в развертывании конфигураций на базе решений SAP, возглавлял проекты миграции ИТ-сервисов. Сейчас – архитектор решений Vertica в России и СНГ, компания Micro Focus.
Основа для трансформации ландшафта обработки больших данных

Часто проекты модернизации ландшафта обработки данных вызваны какими-либо проблемами эксплуатации, недостатком функционала или коллизиями с драйверами – в процессе изменений главное не разрушить то, что уже работает. Возможным решением может стать переход на Vertica: быстрое аналитическое хранилище на стандартном серверном оборудовании без дорогостоящих дисковых массивов или HighEnd-серверов с интерфейсом ANSI SQL; горизонтально-масштабируемая колоночная MPP СУБД со встроенным аналитическим функционалом; возможность работы на «голом железе», виртуальных машинах и в облаках; близкий к реальному времени отклик на базах петабайтных объемов; аналитика на платформе Hadoop; работа с унаследованными процессами; онлайн-аналитика при работе с Kafka. Кроме этого Vertica поддерживает работу с алгоритмами искусственного интеллекта, контейнерную обработку и имеет встроенные механизмы репликации базы данных. Доклад посвящен возможностям формирования единой (унифицированной) экосистемы обработки данных на основе эволюционного подхода корпоративного ИТ-ландшафта, обеспечиваемого СУБД Vertica.
Вернуться
к докладчикам
Роман Гоц, Atos
Более 20 лет опыта работы в ИТ-индустрии: занимался развитием бизнеса в крупных технологических компаниях, управлял федеральными и макрорегиональными проектами, возглавлял управление федеральной розницей и расширением региональной партнерской сети. Сейчас – директор по развитию бизнеса компании Atos в России, где руководит департаментом больших данных и безопасности, предлагающим инфраструктурные решения предприятиям различных отраслей экономики.
Жизненный цикл данных – от периферии до озера

Данные сегодня приобрели критически важное значение, позволяя компаниям создавать инновационные решения, получать конкурентные преимущества и принимать взвешенные решения. Однако, управление данными создает для компаний большие трудности – цифровая трансформация невозможна без надежной архитектуры работы с данными и соответствующих аппаратно-программных решений:
  • Как эффективно управлять жизненным циклом данных?
  • Как оптимизировать данные?
  • Что из себя представляют периферийные вычисления?
  • Как реализовать DataLake не обладая специальными навыками?
  • Как гарантировать высокую рентабельность инвестиций?
Доклад посвящен комплексным решениям Atos, специально предназначенным для работы с большими данными и средствами видеоаналитики.
Партнер
Информационные партнеры
Стоимость участия
в рублях
7900
При оплате до 01.11.2021
9900/12900
При оплате с 01.11.2021
по 01.12.2021
6300
При оплате до 01.11.2021
по коллективным заявкам
(от 3 человек)
7900/9900
При оплате с 01.11.2021
по 01.12.2021
Стоимость участия для ИТ-компаний
в рублях
13900
При оплате до 01.11.2021
16900/19900
При оплате с 01.11.2021
по 01.12.2021
онлайн формат

Стоимость участия в рублях
5200
Close
Close
Для связи с организаторами
conf@osp.ru
Подать заявку на доклад
Пожалуйста, укажите свои контакты,
тему и аннотацию доклада