Главный форум по теме больших данных
и интеллектуальной аналитики – впервые
в Санкт-Петербурге

15 октября
Россия, Санкт-Петербург
Holiday Inn
(Московский пр. 97А)

На форуме BIG DATA Санкт-Петербург – все о данных
как основе цифровой экономики

Форум BIG DATA – это
  • экспертные знания и углубленный анализ от визионеров индустрии больших данных
  • практический опыт проектов с точки зрения их ценности для бизнеса
  • глубокое погружение в детали методик и технологий работы с данными
Примите участие в форуме, чтобы
Понять, почему данные становятся вашим главным активом и как извлечь из него максимальную выгоду
Познакомиться с новейшими разработками в сфере больших данных, продвинутой аналитики, машинного обучения и вдохновиться примерами их практического применения
Узнать детали проведения единственной в России премии для директоров по данным CDO Award
и познакомиться с лауреатами CDO Award 2019
Завязать новые деловые контакты и провести время в полезном общении с коллегами и единомышленниками
Программа
17:50-18:30 Круглый стол
Цифровая трансформация: что стоит за «хайпом»
Модератор – Вячеслав Нестеров, зам.директора кампуса НИУ ВШЭ в Санкт-Петербурге
Участвуют
Александр Егоров, генеральный директор Reksoft
Михаил Матвеев, директор по цифровой трансформации ВТБ
Денис Струков, CEO «Геоинтеллект»
Константин Хайт, основатель «Компо»

Уже несколько лет мы слышим много разговоров о цифровой трансформации. Если отнестись к ним внимательно, то станет понятно, что у вовлеченных в трансформацию сторон разные представления как о самом термине, так и о тех изменениях в технологиях и бизнесе, которые за ним стоят. Анализ реальных кейсов, как российских, так и зарубежных, это еще раз подтверждает.
Многие специалисты также высказывают мнение, что надежды на революционное повышение эффективности бизнеса в результате его цифровой трансформации не вполне оправдываются, во всяком случае оптимизм, высказываемый в популярной прессе, существенно преувеличен.
Мы пригласили обсудить эти вопросы специалистов, представляющих разные компоненты экосистемы (стартапы, крупные ИТ-компании, компании-заказчики ИТ-решений) и близко знакомых как с отечественным, так и с зарубежным опытом.
    Основные темы
    Данные – стратегический актив бизнеса

    • Аналитика больших данных как инструмент повышения эффективности бизнес-процессов
    • Данные в основе инноваций: новые продукты, сервисы, бизнес-модели и бизнесы
    • Монетизация данных: перспективы и проблемы
    • Демократизация больших данных: эффективные инструменты работы с данными для разных ролей в компании, визуализация и самообслуживание
    • Подготовка специалистов в области больших данных, аналитики и машинного обучения, управления данными

    Отраслевой и функциональный опыт

    • Клиентская аналитика в маркетинге и продажах
    • Данные для цифрового HR
    • Данные в основе трансформации закупок и логистики
    • Отраслевой опыт трансформации на основе данных: финансы, ретейл, телеком, транспорт
    • Данные в основе Индустрии 4.0 – кейсы аналитики больших данных в промышленности
    • Данные на службе государства и общества: проекты в органах госуправления, медицине, ЖКХ, социальной сфере

    Корпоративное управление данными

    • Chief Data Officer (CDO): место в корпоративном управлении и ключевые задачи
    • Data Governance: стратегия, процессы, технологии
    • Корпоративная культура работы с данными
    • Управление знаниями
    • Регуляторика больших данных и ее влияние на бизнес
    • Защита корпоративных данных
    Платформы и инструменты

    • Эффективные решения для сбора и хранения данных
    • Платформы для data science и и искусственного интеллекта
    • Аналитика реального времени, инструменты потоковой аналитики
    • Облачные решения работы с данными и edge computing
    Close
    Close
    Для связи с организаторами
    conf@osp.ru
    Спикеры
    Вернуться
    к докладчикам
    Алена Дробышевская, директор, руководитель направления «Умные технологии», KPMG
    Окончила МГУ им. М.В. Ломоносова, факультет ВМиК. Около 20 лет опыта работы в ИТ-индустрии, специализация – анализ данных и облачные технологии. До перехода в KPMG работала, в частности, в Oracle и Microsoft, где отвечала за направление работы с платформами управления данными, аналитику и решения с применением систем искусственного интеллекта в интересах крупных отечественных клиентов. Имеет опыт открытия в России дочерней компании венгерского производителя ПО для банков в области управления рисками и автоматизации процессов кредитования, управления залогами. Сейчас занимается анализом данных и построением моделей на основе технологий машинного обучения и искусственного интеллекта для заказчиков из разных индустрий.
    Стратегия управления данными: центры монетизации

    В течение следующих трех лет 44% организаций во всем мире планируют существенно изменить свою бизнес-модель, спектр предлагаемых сервисов и продуктов, что вызвано как бурным развитием цифровых технологий, так и необходимостью быть ближе к клиентам и заказчикам, оперируя всеми доступными предприятиям данными. Как следствие, почти 92% компаний рассматривают управление корпоративными данными в качестве ключевого элемента своей бизнес-стратегии. Доклад посвящен анализу особенностей проектов монетизации данных, которые сейчас входят в пятерку ключевых направлений развития для компаний. Особое внимание уделено обсуждению возможностей, открываемых перед бизнесом в результате правильно организованных процессов сбора, анализа и доставки данных – на примере проекта построения центра монетизации данных одной из международных компаний.
    Вернуться
    к докладчикам
    Ольга Патриевская, начальник Департамента больших данных и машинного обучения, Санкт-Петербургский информационно-аналитический центр
    Более 10 лет работает в сфере информационных технологий в государственном управлении, курировала проекты по цифровизации деятельности органов государственной власти Санкт-Петербурга. В настоящее время занимается вопросами развития «сквозных» цифровых технологий в Санкт-Петербурге: формированием центров компетенции, поддержки инновационных предприятий, цифровой трансформации органов власти и построением коммуникаций между государством, научными и промышленными предприятиями.
    Область интересов: стратегии управления данными, цифровая трансформация, искусственный интеллект в государственном управлении.
    «Сквозные» цифровые технологии – в разрезе взаимодействия государства, граждан и бизнеса

    На протяжении долгого времени мы воспринимали данные как побочный продукт производства. Развитие технологий, в особенности тех, которые позволяют собирать, объединять и обрабатывать большие объемы данных, открыли новое окно возможностей: данные стали полноценным ресурсом, который способен приносить прибыль. Бизнес увидел это первым и довольно успешно применил.
    Государство на сегодняшний день является одним из крупнейших обладателей данных – за годы развития информационных технологий в государственном управлении, построения электронного правительства, в государственных органах и организациях было создано большое количество информационных систем, агрегирующих огромные массивы данных о гражданах и организациях в самых разных аспектах. К сожалению, качество этих данных не всегда соответствует реальной потребности – они могут быть неактуальными, противоречивым или недоступными для отдельных участников. Кроме того, на сегодняшний день не определены единые правила работы с данными.
    В докладе будут рассмотрены вопросы повышения качества данных, трансформации государства на основе использования данных и построения эффективного информационного обмена между государством, бизнесом и гражданами.

    Вернуться
    к докладчикам
    Александр Гусев, эксперт, Национальная база медицинских знаний
    Получил высшее техническое образование, кандидат технических наук. В 2007 году вместе с партнерами основал компанию «Комплексные медицинские информационные системы» («К-МИС»), ставшую сегодня одним из ведущих разработчиков медицинского ПО в России – второе место в рейтинге «Крупнейшие поставщики ИТ-решений для здравоохранения».
    Область интересов: цифровая медицина, искусственный интеллект для медицины и здравоохранения, медицинские информационные системы. Член наблюдательного совета ассоциации разработчиков и пользователей искусственного интеллекта для медицины «Национальная база медицинских знаний», член экспертного совета Министерства здравоохранения РФ по вопросам использования информационно-коммуникационных технологий в системе здравоохранения. Ответственный редактор журнала «Врач и информационные технологии». Автор почти 150 работ по разработке и внедрению медицинских информационных систем, включая монографии «Информационные технологии в здравоохранении» и «Медицинские информационные системы».
    Большие данные в медицине: трудности и опыт их преодоления

    На первый взгляд, в российском здравоохранении накоплено море готовой и качественной информации, которая только и просит, чтобы ее использовали на благо врачей, пациентов и цифровой экономики. Но на поверку не все так просто. Многие системы, а значит и накапливаемая в них информация, несовместимы между собой не только по структуре данных, но и по форматам, и по способам кодирования. Особенности ведения электронной медицинской документации таковы, что лишь в единичных случаях ее можно использовать для извлечения действительно ценных и заслуживающих доверия фактов. Ограничения, накладываемые законодательством в области персональных данных, создают порой непреодолимые барьеры для создания баз больших биомедицинских данных, даже в деперсонифицированном виде. Однако в докладе будет рассказано не только об этих и других «подводных камнях», но и о том практическом опыте обработки больших медицинских данных, который все-же удалось получить российским разработчикам систем искусственного интеллекта.

    Вернуться
    к докладчикам
    Иван Черницын, руководитель центра аналитических решений, Газпром нефть
    Более 17 лет работает в таких областях, как реализация организационно-информационных проектов и разработка аналитических приложений. В 2009-2011 гг. принимал активное участие в проектах комплексной автоматизации предприятий сбытового блока «Газпром нефти», с 2012 года руководит в ПАО «Газпром нефть» проектами построения систем BI, управления нормативно-справочной информацией, хранилищ данных. C 2018 года руководит проектами создания системы управления данными и озера данных, практиками data science и развития аналитических компетенций. Обладатель международной номинации Qlik Luminary 2019 за успехи в развитии аналитической культуры.
    Закончил два факультета Уральского государственного университета по специальностям «Математика, прикладная математика» и «Финансовый менеджмент», магистратуру со специализацией «Математическая экономика». Получил диплом MBA в Академии народного хозяйства при Правительстве РФ, факультет инновационно-технологического бизнеса. Прошел обучение по долгосрочной программе Проектная Академия «Газпром нефти» в Московской школе управления «Сколково».
    Практика создания «умного» озера данных

    Доклад будет посвящен проекту создания комплексной аналитической платформы (озеро данных, хранилище данных, BI) с интегрированными компонентами для управления данными (управление метаданными, бизнес-глоссарий, управление качеством данных и пр.) в сбытовом блоке «Газпром нефти». В выступлении будет рассказано о предпосылках и идеях проекта, выборе компонентов, разработке и внедрении, сценариях и примерах реализованного функционала, а также о планах развития решения. Особое внимание будет уделено ролевой модели и организации работы команды проекта для достижения успеха.
    Вернуться
    к докладчикам
    Эльмира Преснякова, руководитель отдела аналитики, eLama
    До работы в eLama строила бизнес-аналитику в Яндекс.Деньгах, разрабатывала структуру аналитики в крупных телеком-компаниях на протяжении 5 лет.
    В eLama с ноября 2018 года руководит проектами по разработке хранилища, веб- и продуктовой аналитике.
    Data Warehouse с нуля: как хранить данные десятков тысяч рекламодателей?

    Компания eLama создает инструменты для автоматизации и оптимизации интернет-рекламы. В нашем распоряжении есть различные данные о действиях десятков тысяч рекламодателей по России, СНГ и зарубежным странам. До недавнего времени мы почти не использовали такой ценный ресурс для поиска инсайтов и проверки гипотез.
    Этот доклад о том, как мы решили создать внутреннее хранилище данных практически с нуля. Задача с самого начала стала для нас вызовом, поиск похожих кейсов в выступлениях на конференциях и митапах не дал результата, поэтому мы хотим поделиться своим опытом со всеми, кому это может быть полезно. Выступление будет комбинацией менеджерского и технического взгляда на формирование «единого знания» о клиентах, поскольку сложность этой задачи требует разностороннего анализа. Поговорим о том, как и с чем мы пришли к созданию data warehouse; как строилось взаимодействие со всеми заинтересованными лицами в компании; какие использовались инструменты и фреймворки; какой состав команды нужен для реализации с нуля; разберем хороший кейс для подготовки к разработке хранилища на примере сторонней интеграции; обсудим требующие особого внимания моменты – ограничения, объем работ, риски.

    Вернуться
    к докладчикам
    Артем Меркулов, руководитель бизнес-направления Big Data Solutions, Neoflex
    Окончил МФТИ по специализации «аналитические решения и системы отчетности». Имеет более 10 лет опыта работы в области ИТ для финансовых организаций. В компании Neoflex до 2016 года руководил проектами по созданию хранилищ данных. С 2016 года курирует все проекты в области внедрения системы отчетности Neoflex Reporting и заказных аналитических решений, в том числе внедрение Neoflex Reporting Big Data Solutions для «Национального Клирингового Центра» – проект-победитель ежегодного конкурса портала директоров GlobalCIO в номинации Big Data.
    В роли руководителя бизнес-направления Big Data Solutions с 2018 года, отвечает за разработку новых решений и услуг, в том числе за развитие продукта Neoflex Reporting Big Data Edition.
    Современные подходы к мониторингу событий информационной безопасности

    С каждым годом возрастает сложность ИТ-инфраструктуры организаций, на этом фоне растут количество атак и потенциальный ущерб от них и санкций регуляторов. На примере реального кейса Артем Меркулов представит основные аспекты создания системы мониторинга событий информационной безопасности: бизнес-требования, архитектуру на базе Big Data технологий и сложности, с которыми можно столкнуться.
    В подобных проектах на обработку данных может уходить до 80% времени, поэтому использование платформы быстрой разработки и эксплуатации решений работы с большими данными позволяет значительно снизить стоимость и повысить скорость реализации проекта. В докладе будет освещено, какие типовые работы можно оптимизировать при помощи такой платформы.

    Вернуться
    к докладчикам
    Роман Павлов, архитектор бизнес-решений Big Data и IoT, Hitachi Vantara
    Руководит командой, которая создает инновационные решения для передовых компаний России и мира. В прошлом занимался разработкой ключевых систем для крупных компаний и государственных учреждений в Европе.
    Есть ли границы при работе с большими данными «на границе»

    Объемы данных в современном мире быстро растут. Предприятия сталкиваются с проблемой сбора и анализа больших данных из-за удаленности площадок друг от друга и от головного офиса. Платформа Lumada компании Hitachi Vantara решает эту проблему и позволяет обрабатывать большие данные «на границе» и в корпоративном хранилище. Аналитика предоставляется от предприятия и до отдельного сенсора на производстве.
    Hitachi сама является примером использования больших данных «на границе». Свой богатый опыт мы также используем для создания «умных скважин» и «умных конвейеров» для наших клиентов.

    Вернуться
    к докладчикам
    Владимир Валдин, директор по решениям в области общественного транспорта, «А+С Транспроект»
    Владимир Валдин — транспортный инженер, один из самых известных в России экспертов в сфере развития общественного транспорта. Возглавлял «Северо-западный картографический центр», компанию «ДМ-Трейд» и производителя картографической и геоориентированной продукции «Дискус Медиа». С декабря 2018 года – директор по решениям в области общественного транспорта компании«А+С Транспроект», основными направлениями деятельности которой являются транспортное моделирование, разработка программ комплексного развития транспортной инфраструктуры, разработка ПО для управления интеллектуальными транспортными системами.
    Big data в транспорте: лекарство, но не панацея

    Ключевым условием повышения конкурентоспособности экономики России является улучшение транспортной системы страны. Так, бизнес сможет менее затратно перевозить грузы, а люди — каждый день быстрее добираться на работу. Использование больших данных существенно повышает точность транспортного планирования: они помогают инженерам понять, кто, куда и на чем едет. В своем выступлении Владимир Валдин расскажет, как транспортные инженеры сегодня получают данные, и каким образом big data помогают создавать новую транспортную систему страны. Особое внимание будет уделено основным проблемам больших транспортных данных в России — как организационным, так и техническим.
    Вернуться
    к докладчикам
    Сергей Золотарев, управляющий партнер, Arenadata
    Закончил МГТУ им. Н.Э. Баумана, работал в компаниях EMC, Jet, Avaya, Microsoft, Compaq. С 2013 по 2016 годы возглавлял представительство компании Pivotal в России, СНГ и Восточной Европе, где руководил проектами в области больших данных. В 2015 году инициировал проект разработки универсальной открытой платформы данных, результатом которого стал, в частности, сертифицированный Linux Foundation продукт Arenadata Hadoop. Член экспертного совета национальной премии CDO Award. Сейчас – управляющий партнер компании "Аренадата Софтвер".
    Open source как основа корпоративной платформы данных – возможность или неизбежность?

    Сегодня все больше крупных компаний при построении корпоративной платформы данных, а точнее, корпоративного озера данных (data lake), берут за основу проекты с открытым кодом (open source). Явным преимуществом такого подхода является использование инновационных технологий и продуктов для реализации самого разнообразного списка сценариев по работе с данными. Однако нельзя забывать и целом ряде вопросов, которые при этом возникают: как интегрировать компоненты платформы между собой, как поддерживать эту интеграцию с течением времени, как централизованно управлять всеми компонентами платформы, как осуществлять поддержку и эксплуатацию, какие есть типовые риски и особенности использования open source.
    Выступление даст ответы на эти вопросы на примере платформ данных, реализованных для крупнейших российских компаний и организаций.

    Вернуться
    к докладчикам
    Михаил Комаров, директор направления Informatica, DIS Group
    Михаил Комаров присоединился к компании DIS Group в 2009 году в роли менеджера по развитию бизнеса. С 2011 года занимает должность директора направления Informatica и отвечает за развитие продаж и партнерской сети Informatica в России и СНГ. За время работы в компании принимал участие в крупнейших проектах по управлению данными в России и СНГ. До работы в DIS Group Михаил отвечал за развитие продуктовой линейки в банковском секторе компании «Техносерв». Закончил Московский Государственный институт электроники и математики (Технический университет) по специальности «Управление и информатика в технических системах».
    Data governance для больших данных

    Сегодня понятия Big Data и Data Governance тесно переплетаются: первое сложно представить без второго. Все больше компаний переводят свои проекты в области больших данных из разряда «пилотных» в разряд таких проектов, которые должны приносить существенную выгоду и ключевые конкурентные преимущества. Для того чтобы научиться делать это, необходимо правильно выстраивать работу с большими данными как с ключевым активом – набором сервисов, которые реально меняют работу и бизнес-процессы компании. Как это делать? Как доставить выгоду от Big Data на кончики пальцев каждому специалисту, которому она может быть полезна? Об этом и будем говорить на форуме.
    Вернуться
    к докладчикам
    Евгений Старосельский, ведущий исследователь данных, ЭР-Телеком Холдинг
    В 2007 году закончил математико-механический факультет СПбГУ, в 2014-м получил PhD in Engineering в Университете Ватерлоо, Канада. До отъезда в Ватерлоо работал в компании Informatica.
    Начиная с 2013 года работал в должности data scientist в кремниевой долине в компаниях RadiumOne, Steppechange, параллельно являлся data science консультантом в Выпмелкоме, компании Wind. Как независимый консультант делал проекты для российских компаний «Север Сталь Групп».
    Как большие данные помогают оператору связи в условиях конкурентного рынка

    Поиск успешных направлений развития внешних и внутренних сервисов, построенных на больших данных, до сих пор является нетривиальной задачей для телекома.
    В презентации будут разобраны два конкретных случая применения больших данных для повышения качества коммуникации с абонентами. В первом кейсе расскажем о зависимости между характеристиками многоквартирных домов и качеством услуг, предоставляемых оператором связи. Второй пример будет посвящен использованию больших данных и машинного обучения для анализа демографического состава домохозяйства, благодаря которому существенно повышается эффективность коммуникаций с клиентами.

    Вернуться
    к докладчикам
    Василя Гайнулина, руководитель продукта, X5 Retail Group
    Руководитель продукта «Рекомендательные системы» в дирекции по большим данным X5 Retail Group. Развивает профилирование клиентов трех розничных сетей Х5 и предиктивные модели для программ лояльности «Пятерочки», «Перекрестка» и «Карусели». До Х5 занималась исследованиями и аналитикой в компании «Русский Стандарт Водка». Жила в пяти странах, окончила факультет социологии СПбГУ и магистратуру по программе управления стратегическими проектами университетов Heriot Watt, MIP Politecnico di Milano и Umeå University.
    Поиск ценности в рекомендательных системах для программы лояльности

    Программа лояльности розничной сети предоставляет огромные возможности по пониманию потребностей клиентов через аналитику больших данных. Big Data в Х5 – это экосистемы продуктов внутри компании, чья цель – приносить дополнительные деньги за счет использования данных. В выступлении я расскажу об основных проблемах, которые возникли при развитии продуктов «профиль клиента» и «рекомендательные системы» для программ лояльности Х5, и поделюсь решениями этих проблем, к которым пришла команда продукта. Кто является пользователем продукта больших данных, и как определять потребности этих пользователей? Как подход гибкой разработки увязать с необходимостью показывать конкретный результат в конкретный срок? Что в продукте с машинным обучением называть проверкой гипотез, и как их проверять? Ценность очень больших данных лежит не на поверхности, и на примере проб и ошибок в развитии внутреннего продукта для крупнейшей розничной компании я расскажу о ее поиске.
    Вернуться
    к докладчикам
    Саркис Дарбинян, управляющий партнер, Центр цифровых прав
    Адвокат, эксперт в области digital- и ИТ-права, основатель Лаборатории цифровых прав.
    В 2005 году закончил юридический факультет Российской Таможенной Академии по специализации «гражданское право». Работал в юридических подразделениях различных коммерческих и некоммерческих организаций, в 2011-2016 гг. – член Коллегии адвокатов «Трунов, Айвар и партнеры».
    С 2012 года возглавляет направление юридической практики общественной правозащитной организации «РосКомСвобода». С 2016 года – управляющий партнер Центра цифровых прав.
    Спикер множества международных конференций и форумов, тренер по киберправу.
    Big Data на краю закона

    Big Data сегодня представляет собой ценный цифровой актив, имеющий как высокий спрос, так и множество предложений на рынке. При этом до настоящего времени продолжаются дискуссии по поводу того, кто, на каких основаниях и в каких пределах может использовать такие массивы данных, а также нужно ли получать согласие субъектов и владельцев социальных сетей для извлечения данных и их обработки? В своем докладе Саркис Дарбинян расскажет о правовом статусе big data, о том, как они регулируются в России и с какими сложностями встречаются участники рынка на практике при использовании больших данных.
    Вернуться
    к докладчикам
    Вера Бурцева, генеральный директор, «Бюро техники»
    В 2007 году окончила Санкт-Петербургский государственный университет низкотемпературных и пищевых технологий. По второму высшему образованию – программист. В 2015 году прошла обучение по программе Executive MBA Московской школы управления «СКОЛКОВО».
    В 2010 году возглавила инженерную компанию по проектированию и строительству инженерных систем зданий «Бюро техники».
    С 2008 года развивает энергоэффективные и экологичные технологии по выработке холода из тепла (абсорбционные технологии). В 2013 году прошла обучение в USGBC (Американский совет по «зеленым» зданиям) по курсу GREEN BUILDING и сдала экзамен на LEED Green Associate. Является аккредитованным специалистом по LEED сертификации.
    C 2013 по 2018 гг. возглавляла Комитет по энергоэффективности и устойчивому развитию «Российской гильдии управляющих и девелоперов».
    С 2014 года является руководителем рабочей группы по созданию российской системы устойчивого развития в строительстве GREEN ZOOM.
    Big data в строительстве и ЖКХ. Уже на пороге России или нет?

    Большие данные – ключевая тема сегодняшнего дня для многих российских отраслей. Значительное внимание уделяется большим данным в российском стандарте по повышению устойчивого развития в области строительства – GREEN ZOOM. Этот стандарт характеризует будущее отечественной строительной отрасли. Он был разработан в 2014 году и быстро завоевал признание у ведущих девелоперов по всей России. В 2018 году в стандарте появился раздел, посвященный big data.
    Итак, будущее уже наступило? В ходе выступления будут рассмотрены возможности использования big data при строительстве объектов недвижимости и после ввода их в эксплуатацию (ЖКХ). Представим 13 основных сфер применения больших данных в этой отрасли и обсудим, для каких задач применение больших данных обеспечивает реальный эффект.

    Вернуться
    к докладчикам
    Сергей Кузнецов, генеральный директор, «Юнидата»
    Закончил математико-механический факультет СПбГУ, магистратуру управления при экономическом факультет, автор публикаций по субоптимальным алгоритмам, оптимизации хранилищ данных и криптографии. Более 20 лет в ИТ-индустрии: возглавлял группу разработчиков компании Enkata Inc, специализировавшейся в области аналитической обработки больших данных; в компании Siperian – решения класса MDM – руководил центром разработки; с 2010 по 2012 годы руководил российским подразделением компании Informatica; в 2012 году возглавил компанию TaskData, работающую в области управления информацией, обеспечения качества и очистки данных. С 2014 года возглавляет компанию «Юнидата».
    Data Governance – вершина управления данными

    Руководство данными (Data Governance) – деятельность по осуществлению руководящих и контрольных полномочий (планирование, мониторинг и обеспечение выполнения) по управлению информационными активами. Для достижения этих целей программа руководства данными включает разработку политик и процедур, культивирование практики распоряжения данными на различных уровнях внутри организации и инициацию мероприятий по управлению изменениями, направленных на активное разъяснение сотрудникам организации выгод от внедрения руководства данными и моделей деятельности, необходимых для успешного управления данными как активом.
    Вернуться
    к докладчикам
    Александр Вишератин, исследователь, Национальный центр когнитивных разработок Университета ИТМО
    Сотрудник Национального центра когнитивных разработок Университета ИТМО. Занимается распределенными вычислениями, сбором и анализом данных (машинное обучение и data mining), агентным моделированием различных процессов. Преподает курсы «Инфраструктуры сбора и обработки распределенных данных» и «Архитектуры нейронных сетей для глубокого обучения» в Университете ИТМО.
    Интернет вещей, умные дома, мониторинг оборудования — как выгодно хранить и обрабатывать терабайты временных рядов в облаке

    Сегодня все составляющие нашей жизни пронизаны временными рядами: биржевые котировки, мониторинг индустриального и медицинского оборудования, умные дома, интернет вещей… Даже сам человек становится ходячим набором датчиков. При этом все чаще компании, обрабатывающие эти данные, предпочитают использовать облачные сервисы для организации своей инфраструктуры. Поэтому сегодня лучшая система хранения и обработки больших данных временных рядов должна быть совместима с облаками.
    В своем докладе Александр Вишератин расскажет, как в ходе проекта с компанией Siemens на базе совместной лаборатории Siemens и Университета ИТМО была разработана база данных временных рядов Peregreen. Peregreen создана для того, чтобы максимально быстро оперировать данными в облачных платформах и одновременно с этим минимизировать стоимость эксплуатации за счет компактного представления данных и использования нестандартных хранилищ, таких как Amazon S3.

    Вернуться
    к докладчикам
    Никита Кардашин, руководитель отдела развития интеллектуальных систем, Naumen
    Более десяти лет в ИТ-индустрии, обладает профильным опытом работы в компаниях розничной торговли, информационно-технологической и телекоммуникационной сферы. Занимался управлением проектами и продуктами, участвовал в ряде проектов для компаний и организаций государственного, энергетического и финансового сектора. С сентября 2017 года возглавляет Направление анализа данных и машинного обучения в Департаменте систем автоматизации ИТ и процессов обслуживания компании Naumen, где отвечает за развитие и продвижение продуктов Naumen Service Management Intelligent Automation и Naumen Business Services Monitoring, а так же услуг в сфере аналитики данных.
    Больше чем данные

    Доклад посвящен перспективным системам, базирующимся на технологиях Big Data, которые уже сегодня используются во многих областях и определяеют развитие цифровой трансформации бизнеса и государства в России. Именно инструменты искусственного интеллекта, машинного обучения, анализа больших данных позволяют классифицировать и обрабатывать огромные массивы структурированной и неструктурированной информации, обеспечивая при этом компаниям реальный бизнес-эффект, подтвержденный в цифрах. Никита расскажет о предиктивных моделях, диалоговых роботах, интеллектуальной автоматизации и приведет результаты кейсов трансформации, реализованных в компаниях разных отраслей.
    Вернуться
    к докладчикам
    Антон Загвоздин, руководитель направления по продажам ИТ-решений, МТС
    Окончил Северный (Арктический) федеральный университет. С 2014 года работает в МТС. Обладает большим опытом реализации крупных проектов по внедрению информационных систем в интересах бизнес-клиентов из различных сфер.
    Big Data: как анализ больших данных помогает бизнесу любых размеров

    Будущее, в котором анализ больших данных внедряется во все функциональные процессы в бизнесе, уже наступило. Прямой экономический эффект от использования Big Data в МТС составил 3,5 млрд руб. за три года. В своем выступлении Антон на реальных примерах покажет, как заставить большие данные работать на свой бизнес, независимо от его масштаба.
    Вернуться
    к докладчикам
    Сергей Шестаков, генеральный директор, Luxms
    Окончил Санкт-Петербургский политехнический университет Петра Великого, к.т.н.
    Диссертация посвящена применению методов ИИ для планирования сбора информации.
    Предприниматель в сфере высоких технологий, основатель группы компаний Luxms.
    В настоящее время сфокусирован на задачах бизнес-аналитики: визуализации и массивно-параллельной обработке данных, в том числе с применением методов ИИ.
    Практика визуального контроля больших данных

    В компаниях, вставших на путь цифровизации, ключевую роль играет возможность принимать решения, опираясь на анализ больших объемов данных. Для менеджеров различного уровня эффективность таких решений в значительной степени определяется тем, как визуализируются результаты такой аналитики. В докладе рассмотрим теорию вопроса - как ответить на вызов визуализации для принятия решений – и кейсы из практики Luxms. Среди них: финансовая аналитика подразделений крупного оператора фиксированной связи с массивно-параллельным хранением данных; отслеживание маркетинговых кампаний в реальном времени для оператора мобильной связи; контроль регионального здравоохранения с in-memory обработкой и массивно-параллельным хранением данных; текстовая аналитика в MPP-режиме на данных почтовой переписки; прогнозная аналитика с применением методов ИИ в МРР-режиме на данных ИКТ-инфраструктуры.
    Вернуться
    к докладчикам
    Дмитрий Дорофеев, главный архитектор, Luxms
    Окончил Санкт-Петербургский политехнический университет Петра Великого, прикладная математика.
    Компьютерный гик с навыками программирования на многих языках. Создал десятки сайтов интернет-магазинов и мобильных приложений. Спроектировал Luxms BI. В настоящий момент фокусируюсь на Big Data, IoT, MPP и других современных технологиях обработки данных.
    Практика визуального контроля больших данных

    В компаниях, вставших на путь цифровизации, ключевую роль играет возможность принимать решения, опираясь на анализ больших объемов данных. Для менеджеров различного уровня эффективность таких решений в значительной степени определяется тем, как визуализируются результаты такой аналитики. В докладе рассмотрим теорию вопроса - как ответить на вызов визуализации для принятия решений – и кейсы из практики Luxms. Среди них: финансовая аналитика подразделений крупного оператора фиксированной связи с массивно-параллельным хранением данных; отслеживание маркетинговых кампаний в реальном времени для оператора мобильной связи; контроль регионального здравоохранения с in-memory обработкой и массивно-параллельным хранением данных; текстовая аналитика в MPP-режиме на данных почтовой переписки; прогнозная аналитика с применением методов ИИ в МРР-режиме на данных ИКТ-инфраструктуры.
    Вернуться
    к докладчикам
    Владимир Карагиоз, руководитель департамента архитекторов решений, Red Hat
    20 лет работы в ИТ-индустрии, специализация – современные средства разработки приложений, облачные технологии (PaaS и IaaS). До работы в компании Red Hat руководил департаментами предпроектного консалтинга и группами отраслевых решений в компаниях Oracle, Adobe, Siebel Systems.
    Окончил Московский энергетический институт по специальности «Прикладная Математика».
    Open source и big data: при чем здесь контейнеры?

    Традиционные корпоративные архитектуры концептуально были разработаны много лет назад под нагрузки, которые отличаются от работы с большими данными и задачами машинного обучения. Традиционные средства разработки и ПО промежуточного слоя не всегда помогают во внедрении средств интеллектуальной аналитики.
    Мы расскажем о том, как в этой ситуации решения ведущего open source разработчика могут помочь именно вам.

    Вернуться
    к докладчикам
    Егор Осипов, руководитель направления Big Data, Крок
    Еще во время учебы в СПбГУАП по специальности «авиационное приборостроение» успел поработать разработчиком в сфере ретейла, а затем возглавить разработку продукта DWH для телеком-операторов в компании «Петер-сервис». После окончания вуза получил бизнес-образование в Санкт-Петербургском международном институте менеджмента и переехал в Москву, где развил практику хранилищ данных в составе команды Крок. В настоящее время возглавляет в компании практику big data. За время работы в Крок реализовал множество проектов внедрения big data -технологий в банках, ретейле, промышленности.
    Я внедряю big data: заметки выжившего

    Мы построили практику big data с нуля и за это время сделали множество прекрасных и амбициозных проектов. Однако мы до сих пор регулярно наблюдаем, с какими трудностями сталкиваются многие компании при внедрении технологий big data. Поэтому хочется поделиться лучшими практиками на нескольких примерах и рассказать про особенности и подводные камни этих проектов. Я постараюсь осветить некоторые часто возникающие вопросы, рассказать про интересные возможности и не забыть про популярные ошибки, с которыми регулярно сталкиваются наши заказчики и партнеры.
    Мы ждем на форуме
    • руководителей компаний и менеджеров бизнес-подразделений
    • директоров по цифровой трансформации
    • директоров по ИТ
    • директоров по данным (Chief Data Officer)
    • бизнес-аналитиков и исследователей данных
    Генеральные партнеры
    Партнеры
    Информационные партнеры
    Дополнительные вопросы
    по регистрации и оплате участия
    (495) 725-4780
    conf@osp.ru
    BIG DATA 2019:
    как это было
    Здесь вы можете узнать какие спикеры принимали участие в BIGDATA 2018
    ФОТО
    СПИКЕРЫ
    Вернуться к докладчикам
    Алексей Минин
    «Эксполераторы» как ответ на вызовы цифровой экономики
    Бурное развитие робототехники и систем искусственного интеллекта, технологий Big Data в сочетании с глобализацией торговли приводит к тому, что все товары и сервисы становятся глобально конкурирующими. Происходит становление глобальных платформ и внедрение парадигмы цифровой экономики. Это означает, что только инновационные товары и услуги смогут приносить доход своим производителям, создавать рабочие места и генерировать доходы для государства.
    Так как основой инноваций преимущественно являются технологии, то способность их быстро развивать станет ключевым конкурентным преимуществом людей, компаний и государств. Таким образом, именно экспоненциальные технологии будут определять успешность компаний и целых государств, но применить такие технологии можно только к существующим активам. Реализацию потенциала цифровой экономики РФ обспечат не акселераторы (в сложившихся условиях управление портфельными инвестициями – неподъемная по сложности задача), а «эксполераторы», задачей которых будет объединение активов госкорпораций и гибкости стартапов, финансируемых за счет капитализации получаемой интеллектуальной собственности и ее глобальной коммерциализации в дальнейшем. Технологический задел и человеческий капитал, имеющиеся в России, будут этому способствовать.