ПРЕДПРИЯТИЕ, ОСНОВАННОЕ НА ДАННЫХ:
стратегии, архитектуры, платформы, практики

12 ноября 2020
Palmira Business Club
РОССИЯ, МОСКВА

Форум «Управление данными 2020»

Форум на одной площадке объединяет всех, кто определяет стратегию работы с корпоративными данными на всем протяжении их жизненного цикла, и всех, кто воплощает ее в жизнь с помощью конкретных архитектур, политик, процедур и технологий.

ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства
«Открытые системы».
Сегодня никто не учит понимать данные, а между тем, как показал нынешний кризис, наведение порядка в работе с данными дает больше, чем инвестиции в модные технологии. Цифровизация — это не про технологии, а про культуру работы с данными.
  • Как из сырых сведений получить знания для построения новых бизнес-моделей монетизации данных?
  • Как организовать управление корпоративными данными и в реальном времени обеспечить их мониторинг и аудит качества?
  • Чему учит лучший опыт предприятий, уже развернувших у себя аппаратно-программные инфраструктуры управления данными?
Все ответы – на нашем форуме «Управление данными 2020».
В программе:
Бизнес-модели
  • Основные бизнес-процессы управления данными, корпоративная модель данных
  • Создание цифровой команды (CDO, CTO, CDTO, владельцы и стюарды данных, эксперты предметной области, исследователи данных и инженеры по данным)
  • Учет информационных ресурсов и аналитических моделей
  • Управление требованиями к данным (классика и agile), сбор данных и формирование единой версии правды для всей организации
  • Секреты управления метаданными (бизнес-глоссарий, каталог активов и моделей данных, нечеткий поиск, анализ происхождения и зависимости данных)
  • Мониторинг, контроль и управление инцидентами качества данных
  • Аналитическая обработка, принятие решений на основе данных и монетизации данных
Стратегии
  • Стратегия, политики и процедуры управления данными
  • Квалифицированные кадры для работы с данными и формирование культуры принятия решений на основе данных
  • Коллективное управление информационными активами (данные, документы, контент, аналитические модели и метаданные)
  • Самообслуживание, демократизация данных и их анализа
  • Ошибки и проблемы при построении системы управления данными
  • Как повысить доверие к данным и бизнес-результатам?
  • Безопасность доступа к данным
Архитектуры
  • Шаблоны интеграции данных («озеро», хранилище, фабрика данных, MDM, data hub, типовые витрины отчетности, XBRL)
  • «Умные» технологии анализа данных (бизнес-аналитика, исследование данных, прогнозирование, искусственный интеллект, большие данные, визуализация и дополненная аналитика)
  • Ландшафт корпоративной модели данных
  • Архитектура поддержки цифровых двойников
  • Шаблоны управления качеством данных
  • Архитектура управления метаданными
  • Технологии и стили управления документами и контентом (Data Room, Adaptive Content Management, NewSQL, NoSQL, HDFS, In Memory, HTAP)
Платформы и инструменты
  • Коммерческие и открытые платформы управления данными
  • Инструменты интеграции данных (Alteryx, Ataccama, IBM, Informatica, Pentaho, SAP, SAS, Syncsort Trillium, Talend, Teradata, Unidata и др.)
  • Средства управления мастер-данными (Ataccama, Informatica, IBM, Microsoft, SAS,TIBCO, Talend, Unidata и др.)
  • Управление качеством данных (Ataccama, Experian, IBM, Informatica, SAS, SAP, Talend, Unidata, и др.)
  • Инструменты сбора, хранения и обработки данных, платформы и инструменты бизнес-аналитики
  • Средства управление метаданными, Data Governance (Alation, Informatica, Collibra, Unidata и др.)
  • Облачные решения, централизованные и распределенные программно-аппаратные комплексы
Практика управления данными
  • Материально-техническое обеспечение
  • Промышленность, информационные технологии, финансовые рынки, ретейл, транспорт, телеком, ТЭК, цифровое государство, медицина, юриспруденция, сельское хозяйство; 10+ отраслей.
Вернуться
к докладчикам
Алена Дробышевская, Яндекс.Облако
Окончила факультет ВМиК МГУ им. М.В. Ломоносова. Более 20 лет опыта работы в ИТ-индустрии – специализация: хранение и анализ данных, искусственный интеллект и машинное обучение, облачные технологии. Работала в компании KPMG, где возглавляла практику «Данные и аналитика», оценивала и внедряла решения с применением методов машинного обучения в интересах крупных российских предприятий. В компании Microsoft отвечала за продвижение решений для хранения и анализа данных, а также решений класса «Artificial Intelligence», в том числе с применением облачных технологий. До прихода в Microsoft работала в Oracle, где отвечала за продвижение на российский рынок хранилищ данных, платформы управления данными и инструментов бизнес-анализа. Имеет опыт открытия в России дочерней компании венгерского производителя ПО для банков в области управления рисками и автоматизации процессов кредитования, управления залогами. Сейчас, в компании Яндекс.Облако руководит направлением развития платформы машинного обучения, принимает участие в проектах, связанных с анализом данных и построением моделей на основе технологий искусственного интеллекта.
Данные для глубинного обучения

Мир становится цифровым – все больше компаний и организаций во всем мире меняют свои бизнес-модели, стремясь максимально полно использовать все доступные им данные для учета текущих и прогнозирования будущих потребностей своих клиентов и заказчиков. Растет важность машинного обучения при анализе данных и построении прогнозных моделей. Доклад посвящен анализу особенностей каждого этапа обработки данных и инструментов, применяемых в течение жизненного цикла систем искусственного интеллекта. Особое внимание уделено обзору сервисов, используемых для сбора, хранения, обработки и первичного анализа данных для построения моделей глубинного обучения и визуализации результатов. На конкретных примерах раскрывается процесс решения прикладных задач с использованием сервисов Yandex DataSphere, DataLens, Data Proc и др.
Вернуться
к докладчикам
Александр Хайтин, «Mechanica AI»
Более 20 лет в ИТ-индустрии, специализируется на консалтинге, разработке и внедрении передовых для своего времени технологий. Работал в «КОРУС консалтинг», где занимался анализом и изменением бизнес-процессов заказчиков, а также внедрением различных информационных систем. В Yandex Data Factory отвечал за разработку и внедрение решений на основе технологий машинного обучения. Сейчас – генеральный директор и со-основатель компании Mechanica AI, специализирующейся на проектах искусственного интеллекта в промышленности: металлургия, химическая индустрия, нефтехимия.

Дмитрий Карбасов, Евразийская Группа

Более десяти лет работает в сфере развития и трансформации бизнеса в компаниях ИТ-интеграторах и вендорах. Имеет богатый опыт практического применения технологий искусственного интеллекта, а также в управлении разработкой и развитии инновационных ИТ-продуктов и сервисов. Сейчас, в международной группы компаний Евразийская Группа (Eurasian Resources Group) руководит управлением промышленного искусственного интеллекта где за полтора года «с нуля» создал подразделение, ведущее проекты по созданию и внедрению технологий ИИ в производственные процессы добычи, переработки и производства алюминия, а также сплавов феррохрома. Кроме этого отвечает за решение задач оптимизации планирования и закупок.
Инвентаризация данных

Для реализации проектов с использованием искусственного интеллекта необходима обучающая выборка на основе данных, используемых для управления производством и можно ожидать, что достаточно просто взять архив таких данных и начать работать. Однако, это не так. При оперативном управлении применяется комбинация оцифрованных и архивных данных (вес, температура, химический состав и т. п.), а также сведения, непосредственно доступные оператору (цвет и объем дыма, шумы от оборудования и т.д.). Кроме того, даже цифровые данные не всегда хранятся после отображения в интерфейсе, а если и хранятся, то могут содержаться в анонимных таблицах без описаний и вне привязки к процессу и оборудованию. Ситуацию усугубляет еще и то, что чаще других теряются наиболее ценные данные: диагностированные проблемы, принятые меры и пр. Если предприятие собирается использовать машинное обучение для для улучшения своих производственных процессов, то стоит начинать именно с инвентаризации данных – простой, нудной работы, но позволяющей понять, какие именно данные используются, какая часть из них накапливается и в каком виде, а какая полностью теряется сразу после использования. В докладе на конкретных примерах показано, как относительно просто провести инвентаризацию данных, позволяющую подготовить почву для проектов по реализации предсказательных и рекомендательных моделей.
Вернуться
к докладчикам
Александр Гурко, НП «ГЛОНАСС»
Более 20 лет работает в сфере телекоммуникаций, на различных руководящих должностях курируя проекты ГЛОНАСС: президент некоммерческого партнерства «Содействие развитию и использованию навигационных технологий» (НП «ГЛОНАСС»); соруководитель рабочей группы по реализации и разработке дорожной карты «Автонет 2.0» Национальной технологической инициативы; член Совета при президенте РФ по модернизации экономики и инновационному развитию России, также Комиссии при президенте РФ по вопросам развития авиации общего назначения и навигационно-информационных технологий на основе системы «ГЛОНАСС»; руководитель рабочей группы по вопросам развития беспилотных летательных аппаратов, авиационных систем и авиационных видов спорта. Руководил проектами по созданию государственной системы «ЭРА-ГЛОНАСС», Единой системы управления наземным городским транспортом Московской агломерации, систем мониторинга транспорта для МВД России, МЧС России, «Почты России» и ОАО «Транснефть».

Игорь Кравченко, «Рексофт»

Почти 30 лет опыта работы индустрии разработки ПО – создание масштабных информационных систем для госкорпораций и государственных информационных систем федеральных уровня. Эксперт в области создания платформ обработки данных и телематических систем промышленного назначения. Руководил, в частности, проектами создания и внедрения системы сбора и обработки телематических данных для ведущего автопроизводителя, а также федеральной системы миграционного учета. Сейчас в компании «Рексофт» курирует вопросы, связанные с инновационными рынками и технологиями.
Платформа «Автодата»: управление автомобильными данными

Национальная навигационно-телематическая платформа «Автодата» призвана обеспечить формирование массива статистических и аналитических данных о колесных транспортных средствах, дорожной инфраструктуре, а также сопутствующей информации в транспортной сфере, связанной с логистикой людей и вещей. Платформа должна позволить сформировать массив данных по всему жизненному циклу автомобиля с момента его выпуска в обращение до утилизации: данные о функционировании бортовых систем, поведение водителя, телеметрия взаимодействия с автотранспортной инфраструктурой, а также создать цифровую среду для поддержки движения транспорта с различными степенями автоматизации по дорогам общего пользования. Доклад посвящен обсуждению задач, которые должна решать «Автодата», источников данных для нее и логики их сбора, особенностей их верификации, обогащения и обработки, а также перспектив применения платформы автомобильных. Особое внимание уделено обзору архитектуры платформы.
Вернуться
к докладчикам
Сергей Степанов, «Газпром нефть»


Лев Зуев, «Газпром нефть»


Управление данными в интегрированном планировании

Интегрированное планирование объединяет всю цепочку создания стоимости от переработки до сбыта с целью создания сквозного плана, позволяющего минимизировать риски несоответствия между спросом и предложением – компания должна производить ровно столько нефтепродуктов определенной номенклатуры, сколько может перевезти и реализовать для удовлетворения потребностей рынка. Такое планирование дает возможность оперативно и эффективно управлять жизненным циклом продукта по всей цепочке добавленной стоимости с учетом существующих ограничений и имеющихся возможностей. Доклад посвящен обсуждению бизнес-задач, проблем, преимуществ и результатов реализации проекта интеграционного планирования: оптимизационная модель (функционирование, вход-выход); изменения по итогам реализации проекта – сложности и пути их преодоления. Особое внимание уделено анализу процессов работы с данными – что пришлось поменять в работе с данными, основные проблемы и решения, изменение отношения к данным в бизнесе.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет опыта создания сложных автоматизированных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, работающих сегодня на крупнейших отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий».

Константин Кондратьев, «ТриниДата»

Специалист по Machine Learning и Natural Language Processing. Участвовал в работе над проектами с применением технологий машинного обучения для компаний Вымпелком и Яндекс. В компании «ТриниДата» руководит направлением применения машинного обучения в связке с онтологиями.
Обработка корпоративной информации на естественном языке

Люди обычно предпочитают работать с информацией на естественном языке, а не со структурированными данными – текстовые документы составляют значительную часть данных и значительный объем знаний предприятия. Вместе с тем, до сих пор наиболее распространенный способ работы с такими документами – полнотекстовый поиск, не учитывающий смысла обрабатываемых текстов. Большинство существующих сегодня средств интерпретации естественного языка опираются на использование нейросетей, работа которых часто не поддается анализу, результаты иногда необъяснимы и неожиданны. Альтернатива – использование правил разбора текста, применимых, однако, только для решения относительно локальных задач. Сделать следующий шаг в обработке информации на естественном языке позволяет совместное использование онтологий, как средства представления концептуальных и языковых моделей, и методов машинного обучения. В фокусе доклада – методы и инструменты работы со смыслом, заложенным в текстовой информации: преобразование запросов аналитиков на естественном языке в запросы к структурированным данным; интеграция методов обработки информации на естественном языке со средствами консолидации корпоративных данных; извлечение смысловых конструкций из текстов на естественном языке с целью индексации и автоматизированного аннотирования.
Вернуться
к докладчикам
Эдуард Олевинский, Правовое бюро «Олевинский, Буюкян и партнеры»
Окончил юридический факультет Высшей школы приватизации и предпринимательства, а также и факультет психологии МГУ им. М.В.Ломоносова. Более 30 лет опыта работы на рынке юридических услуг, основатель и руководитель компании «Правовое бюро «Олевинский, Буюкян и партнеры», специализирующейся в области сопровождения процедур банкротства.

Александр Колчин, Правовое бюро «Олевинский, Буюкян и партнеры»

Окончил факультет «Системы управления летательными аппаратами» Московского авиационного института. Около 30 лет опыта работы в сфере общественных коммуникаций и корпоративного управления: The PBN Company, R&R Advertising, «Мобил Телеком», «Русские ВЕБ-ресурсы». Сейчас − партнер компании «Правовое бюро «Олевинский, Буюкян и партнеры».
Что нужно юристам в эпоху цифровой трансформации?

Работа юристов, как правило, оплачивается исходя из почасовой ставки – время стоит серьезных денег, которые платит либо клиент, ожидаемо не желающий нести расходы на техническую, с его точки зрения, работу, либо юридическая компания, что снижает ее billable rate (эффективность труда). Как одна из наиболее консервативных областей – юриспруденция переживает эпоху цифровой трансформации? Что нужно для того, чтобы клиенты не платили за подготовку рутинных документов и поиск данных в различных источниках, а юристы прежде всего занимались защитой интересов своих клиентов, а не тратили время на непроизводственную деятельность? Как организована интеграция с открытыми данными и что сегодня происходит в сфере информатизации деятельности юристов? Доклад посвящен ответам на эти вопросы, формулировке требований к «идеальной» системе для юриспруденции и обзору имеющихся на рынке решений (LegalTech) информатизации работы юристов. Особое внимание уделено анализу опыта эксплуатации интегрированной системы, созданной в правовом бюро «Олевинский, Буюкян и партнеры», а также обсуждению перспектив ее развития и еще не решенных задач в области цифровизации юриспруденции.
Вернуться
к докладчикам
Иван Вахмянин, Visiology
Окончил МИФИ по специальности «Информационное обеспечение экономических процессов», аспирантуру Российской академии государственной службы при президенте РФ по специальности «Информационные технологии в управлении» и Московскую школу управления «Сколково». Эксперт в сфере разработки ПО для анализа и визуализации данных. Сейчас – генеральный директор компании Visiology, где руководит созданием и развитием аналитической платформы бизнес-аналитики.
ViXtract – открытый инструмент загрузки и преобразования данных


Вернуться
к докладчикам
Наталья Мусорина, «Ростелеком»
Окончила МИФИ по специальности «Прикладная ядерная физика». Около 15 лет опыта работы с данными: Сбербанк России, «Газпромбанк», банк «Открытие». Сейчас – директор департамента управления данными в компании «Ростелеком», где отвечает, в частности, за бизнес-системный анализ данных, внедрение операционных процессов управления данными, разработку сервисов и инструментов управления данными.

Александр Юрасов, «Ростелеком»

Окончил Московский государственный индустриальный университет по специальности прикладная информатика в экономике и управлении. Более 10 лет опыта в сфере построения отчетности и управления данными: в «Вымпелком» занимался развитием хранилищ данных и отчетностью бизнес-аналитики для стран СНГ; в Альфа-банке руководил проектами по развитию отчетности по Российским стандартам бухгалтерского учета и Международным стандартам финансовой отчетности. Сейчас – руководитель направления по развитию информационных сервисов департамента управления данными в компании «Ростелеком».
DataGovernance своими силами

Для того, чтобы данные стали ценным активом компании, необходимо, чтобы все ее сотрудники понимали, какими данными они владеют, где их можно получить и как использовать. Как показывают исследования, в крупных компаниях при решении задач работы с данными, от 40 до 80% времени уходит на их поиск. Однако, на практике ситуация еще хуже – данные могут быть безнадежно устаревшими, избыточными, многократно дублированными, либо о их существовании известно лишь узкому кругу пользователей. Данными нужно уметь эффективно управлять и на сегодняшний день на рынке имеются соответствующие решения класса DataGovernace, однако и они часто не позволяют решать конкретные задачи предприятия. Доклад посвящен обсуждению опыта разработки концепции DataGovenance в компании «Ростелеком». Особое внимание уделено анализу причин отказа от внедрения коробочного решения и инициации создания собственного инструмента документирования данных на основе стека Open Source.
Вернуться
к докладчикам
Николай Разин, Банк России
Окончил МФТИ, специализируется на создании интеллектуальных ИТ-систем, выявляющих скрытые закономерности в больших объемах данных: поиск первоисточников новостей событий, оказывающих существенное влияние на ход торгов и биржевых котировок; классификация больших объемов текстов, написанных в свободной форме; определение и распознавание паттернов, характеризующих поведение участников торгов. Сейчас – руководитель отдела функционального развития Департамента противодействия недобросовестным практикам, Банк России.
Практика машинного обучения в Банке России

Эффективная работа с данными, с одной стороны, предполагает максимальную гибкость при работе с необходимыми инструментами, а с другой, всегда ограничена требованиями протоколов безопасности, охраняющих чувствительные данные от произвольного распространения. Несмотря на столь противоречивые требования, точка, в которой достижим правильный баланс – существует и найденные в результате построения прототипов удачные модели означают не конец, а начало пути. Следующий вопрос – как внедрять модели машинного обучения в промышленную эксплуатацию и как их поддерживать? В докладе на практических примерах моделирования систем машинного обучения в Банке России рассмотрены все плюсы и минусы процесса промышленной эксплуатации соответствующих моделей.
Вернуться
к докладчикам
Роман Генис, «Ростелеком»
Окончил МГТУ им.Н.Э.Баумана. Более 15 лет в ИТ-индустрии: «Топс Бизнес Интегратор» – ИТ-консультант; «Форс-Центр разработки», «Банк Открытие» – архитектор проектов. Специализируется на архитектурах аналитических хранилищ данных и систем отчетности, инструментах интеграции и бизнес-аналитики, приложениях управления эффективностью бизнеса, финансовой и управленческой отчетности, а также на приложениях бюджетирования и финансового планирования. Сейчас – архитектор проектов департамента технологического развития управления данными в компании «Ростелеком».
Работа с мастер-данными и трансформациями в корпоративном хранилище

При загрузке данных до уровня витрин корпоративного хранилища обычно выполняется переход от справочников систем источников к принятым в компании эталонным справочникам (мастер-данным). Однако, такая загрузка данных обычно очень зависит от времени выполнения процессов подготовки и согласования с бизнесом маппингов справочников систем источников. Кроме того, при внесении любых изменений в маппинги требуются длительные масштабные перезагрузки и перепривязки данных. Доклад посвящен обсуждению проблем, возникающих при загрузке бизнес-данных в корпоративное хранилище и подходов, применяемых в корпорации «Ростелеком» для существенного сокращения времени загрузки. Особое внимание уделено архитектуре основного хранилища данных, анализу особенностей его взаимодействия с источниками, а также используемым инструментам управления мастер-данными.
Вернуться
к докладчикам
Александр Сидоров, HeadHunter
Около 20 лет в ИТ-индустрии. Работал менеджером проектов и руководителем сервисов в компании Яндекс. Более 15 лет занимается проектированием и разработкой систем с элементами искусственного интеллекта. Сейчас – руководитель направления анализа данных в компании HeadHunter, где отвечает за разработку и развитие поисковых и рекомендательных систем, метрик и автомодераций.
Как мгновенно найти работу и сотрудников

Многие работодатели и соискатели любят составлять резюме или вакансии из пары предложений, задавать запросы из одного слова и получать готовые контакты друг друга сразу же после того, как посетили сайт. Естественно, каждый из них делает все это по-своему, преследует свои конкретные цели, которые в кризисной ситуации меняются очень стремительно. Чтобы сделать все это возможным, сэкономив время соискателей и работодателей, требуется в реальном времени обработать все накопленные данные о их поведении на сайте, сформировать входной пул для системы машинного обучения, позволяющей предсказывать, кто кому подходит и сформировать итоговую индивидуальную витрину с вакансий и предложений. Доклад посвящен обсуждению технологий обработки потоков данных и архитектуры системы, позволяющей автоматически, без вмешательства кадровиков hh.ru готовить выборки, максимально адекватные запросам.
Вернуться
к докладчикам
Максим Кокурин, «Интер РАО»
Окончил факультет технической кибернетики Тульского государственного технического университета и НИУ ВШЭ по специальности финансовый контроль, бухучет и аудит. Около 30 лет опыта в сфере разработки и внедрения ERP, управления основными данными, проектирования и развертывания прикладной корпоративной архитектуры: Банк России – центр разработки (Региональная Автоматизированная Банковская Информационная Система; Программно-Технологический Комплекс Подготовки и Сбора Данных); Oracle – консалтинг в области разработки и внедрения приложений; SAP – логистика, Техническое Обслуживание и Ремонт Оборудования, прикладные разработки, интеграция, аналитика. Сейчас – руководитель департамента блока ИТ в «Интер РАО», где отвечает за организацию работы специализированной ИТ-компании, построение прикладной корпоративной архитектуры и создание системы управления основными данными.
Основное – данные: замена «коней» на переправе

Может ли импортозамещение не быть хайпом и зачем менять то, что работает? В чем ценность готовых решений и сложность их выбора, когда дешевле не значит лучше, а быстрее не значит эффективнее? Для ответа на эти вопросы в докладе обсуждается процесс эволюции системы управления основными данными от «наливания воды решетом» до стабильной, производительной и расширяемой модели управления. Особое внимание уделено анализу опыта проекта импортозамещения – создания, эксплуатации и развития системы управления основными данными группы «Интер РАО».
Вернуться
к докладчикам
Андрей Бадалов, НИИ «Восход»
Окончил Московский инженерно-физический институт (МИФИ), факультет «Кибернетика» по специальности «инженер-математик». Работал на предприятиях оборонной промышленности страны, консультантом «Информационного центра научного парка МГУ», занимал руководящие должности в «Российской корпорации средств связи» (РКСС), входящей в холдинг «Росэлектроника». Сейчаc – директор НИИ «Восход».
Наш опыт создания НСУД

В рамках федерального проекта «Цифровое государственное управление» национальной программы «Цифровая экономика» в 2019 году началась разработка Национальной системы управления данными (НСУД), призванной связать государственные информационные системы и обеспечить доступность, достоверность, полноту, непротиворечивость и защищенность используемых в них данных. По сути, НСУД — это совокупность правовых, организационных, методологических и информационно-технологических элементов, требуемых для объединения информационных систем государственных и муниципальных органов власти. НСУД должна ускорить автоматизацию процессов госуправления, повысить качество и скорость оборота данных, а также предоставить гражданам и юридическим лицам цифровые услуги на более высоком уровне. Доклад посвящен обсуждению особенностей разработки и апробации НСУД, ее ключевых информационно-технологических элементов: Единой информационной системы и витрин данным. Особое внимание уделено анализу опыта конкретных внедрений технологий НСУД в пилотных ведомствах.
Вернуться
к докладчикам
Антон Вахрушев, Сбербанк
Окончил Удмуртский государственный университет, экономист-математик. Около десяти лет опыта разработки прогнозных моделей для крупных банков. Призер соревнований по машинному обучению – «Kaggle Master». Сейчаc – руководитель направления, разработчик решения AutoML в Лаборатории искусственного интеллекта, Сбербанк.
AutoML: анализ данных и моделирование

Число специалистов по исследованию данных (Data Science) сегодня растет существенно медленнее, чем объем задач, решаемых методами машинного обучения. Однако, большинство таких задач – типовые. Доклад посвящен обсуждению способов автоматического решения львиной доли подобных задач при помощи инструмента AutoML, позволяющего освободить время дорогостоящих специалистов для более важных проблем: корректной постановки задачи, выбора наиболее адекватной целевой метрики, генерации экспертных признаков и т.п. Рассмотрены особенности построения blackbox-моделей с помощью библиотеки LightAutoML (LAMA) и интерпретируемых моделей средствами WhiteBoxAutoML, выбираемых в зависимости от конкретной задачи, требований регулятора и возможностей инфраструктуры. Кроме этого в докладе рассмотрены различные варианты инференса моделей с помощью сервисов SberCloud и автоматически сгенерированных SQL-запросов. Примечательно, что соответствующие библиотеки в скором времени будут доступны и сообществу OpenSource.
Вернуться
к докладчикам
Алексей Карапузов, Минцифры России
Окончил Московский института стали и сплавов (МИСиС) по специальностям «Инженер по автоматизации технологических процессов и производств» и «Информационные системы: внедрение сложных информационных систем на основе SAP и Oracle», а также обучался в Центре подготовки руководителей цифровой трансформации ВШГУ РАНХиГС. Работал на различных позициях в практике ИТ-консалтинга компании IBS, а затем в Фонде развития промышленности, где в должности руководителя направления отвечал за развитие государственной информационной системы. В 2018-2020 годах работал заместителем главы администрации города Нижнего Новгорода по информационным технологиям. Обладает богатым отраслевым опытом в сфере создания и развития информационных систем, реализации программ информатизации, применения механизмов государственно-частного партнерства, консультирования в области реорганизации бизнес-процессов, ИТ-аудита и разработки ИТ-стратегий. Сейчас – заместитель директора Департамента развития архитектуры и координации информатизации Минцифры России, где курирует разработку единой технической политики и ее внедрение в органах государственной власти, развитие методологии и архитектурных подходов, используемых при создании и развитии информационных систем, механизмов государственно-частного партнерства в государственных ИТ-проектах.
Единая техническая политика: принципы и требования к управлению данными в информационных системах органов власти

Единая техническая политика – совокупность принципов, правил и требований, наилучшим образом обеспечивающих достижение целей цифровой трансформации госуправления. Такая политика призвана синхронизировать и дополнить существующие требования к созданию информационных систем органов государственной власти, организации взаимодействия как с пользователями систем, так и взаимодействия систем между собой, включая управление данными. Доклад посвящен обсуждению принципов и требований к управлению данными в информационных системах органов государственной власти.
Вернуться
к докладчикам
Сергей Золотарев, Arenadata
Закончил МГТУ им. Н.Э. Баумана и Open University of London (MBA), работал в компаниях EMC, Jet, Avaya, Microsoft и Compaq. С 2013 по 2016 годы возглавлял представительство компании Pivotal в России, СНГ и Восточной Европе, где руководил проектами в области больших данных. В 2015 году инициировал проект разработки универсальной открытой платформы данных, результатом которого стал, в частности, продукт Arenadata Hadoop, сертифицированный Linux Foundation. В 2016 году основал компанию Arenadata, специализирующуюся на разработке открытой платформы сбора и хранения данных. Член экспертного совета национальной премии CDO Award. Сейчас – генеральный директор и управляющий партнер компании "Аренадата Софтвер".
Платформы данных против унаследованных систем

Пандемия-2020 стала катализатором процессов внедрения цифровых решений, позволяющих предприятиям получить реальные конкурентные преимущества, а также привела к ревизии понятия прибыльности компаний и организаций во всех отраслях национальной экономики. Абсолютно все бизнесы приступили к цифровизации своих процессов и сразу захлебнулись в потоках входящих и генерируемых данных, неспособных проходить по имеющимся каналам сбора, обработки и анализа. Доклад посвящен обсуждению преимуществ применения бизнесом платформ данных, а также особенностей и проблем миграции на них с уже существующих систем. Особое внимание уделено анализу опыта проектов такой миграции и практического опыта работы с платформой данных.
Форум для:
директоров по развитию и цифровой трансформации, ИТ-директоров и директоров по данным (CDO);
менеджеров проектов, руководителей групп разработчиков;
руководителей функциональных подразделений и направлений;
топ-менеджеров и владельцев компаний;
архитекторов-аналитиков, исследователей данных;
ведущих специалистов.
Спикеры
Премиум партнер
Генеральный партнер
Партнеры
Информационные партнеры
Стоимость участия
в рублях
9900
При оплате до 11 октября 2020
9900
За каждого участника
по коллективным заявкам
(от 3 человек)
до 08 ноября 2020
12900
При оплате до 08 ноября 2020
15900
При оплате с 09 ноября 2020
онлайн формат

Стоимость участия
4900
Close
Close
Для связи с организаторами
conf@osp.ru
Подать заявку на доклад
Пожалуйста, укажите свои контакты,
тему и аннотацию доклада
Публикации
Мы ждем Вас!
12 ноября 2020
Место проведения:
Москва, Palmira Business Club
(Новоданиловская наб., 6, корп. 2)