В 2020 году объем данных составит 40 зеттабайт, предсказали аналитики.
В Москве внедрили сервис, который на раннем этапе выявляет признаки смертельного заболевания легких, анализируя компьютерные томограммы, а рентгенохирургические операции планируются на основе цифровых данных, собранных в единую систему.
Данные, записываемые акселерометрами, могут предупредить о землетрясении почти за минуту до его начала.
Результаты нового опроса Anaconda показывают, что на очистку и подготовку данных они расходуют почти половину своего рабочего времени.
Тигран Саркисов, директор по работе с данными Х5 Retail Group, поделился своим опытом выстраивания работы с данными и дал несколько практических советов.
Она предназначена для планирования бюджета, зарплаты, прогнозирования спроса и прочих подобных задач, которые на предприятиях обычно выполняются вручную.
Одно из преимуществ нового сервиса — тесная интеграция с другими сервисами используемыми для построения озер данных: Hadoop, Spark, Airflow и Kafka.
Чат-боты, голосовые помощники, виртуальные ассистенты активно применяются сегодня при организации сервисного обслуживания, однако общение с чат-ботом, не обеспечивающее решения вопроса, чревато потерей клиента, который уйдет к компании, виртуальный ассистент которой интегрирован с ее бизнес-процессами и формирует решение, опираясь на ее цифровые активы, системы прогнозной аналитики, ИИ и знания человека-оператора.
Облачные вычисления формируют новую парадигму применения ИКТ для повышения экономической эффективности предприятий.
Данные — топливо для систем искусственного интеллекта, сырье для аналитических алгоритмов и основа для систем автоматизации бизнес-процессов. Однако наивно ожидать, что данные изначально будут чистыми и пригодными для обработки, а если исходные данные некорректны, то и результаты будут соответствующими. Что можно сделать для устранения дефектов в данных? Как определить, что следует исправить, а что нет? Как узнать, когда надо устранить проблему, а когда лучше ничего не трогать? Иначе говоря: как управлять качеством данных?
Применение методов исследования данных в процессах разработки ПО позволяет выиграть в конкурентной борьбе. Например, в программной инженерии получила распространение методика измерения характеристик программного обеспечения, однако без средств автоматизации невозможно разобраться в огромных массивах получаемых с помощью этой методики данных и учесть все их взаимозависимости.
В торговой сети реализуется проект автоматизированной верификации информации, среди целей которого : повышение безопасности перевозок, сокращение хищений, обеспечение надежности поставок товара, выявление неблагонадежных водителей.
Максат Нуриденулы, номинант премии CDO Award 2020, рассказывает о созданной в «Альфа-Банке Казахстан» школе подготовки специалистов в области данных.