Тема номера

Бессерверные приложения: почему, когда, как?

Легкость использования и экономическая эффективность — наиболее желательные свойства программных сервисов. Бессерверные приложения внедряют для экономии расходов на нерегулярные, скачкообразные нагрузки, а также, чтобы избежать проблем с эксплуатацией и масштабируемостью.

Бессерверные вычисления: сегодня и завтра

Относительно новая парадигма бессерверных вычислений сулит сокращение затрат на инфраструктуру и возможности автоматического масштабирования конфигурации, однако переход на эту архитектуру чреват появлением определенных сложностей.

Бессерверная альтернатива традиционным базам данных

Современная распределенная СУБД должна уметь поддерживать различные типы нагрузки, удовлетворяя запросы совершенно разных пользователей. СУБД Yandex Database позволяет не только хранить петабайты данных, поддерживать обработку миллионов запросов в секунду, но и предоставляет режим бессерверных вычислений. Эта платформа дает возможность выполнять проекты с различными типами нагрузки: ключ-значение, традиционные веб-приложения на основе реляционной базы, а также документоориентированные базы данных.

Контуры 6G

Технологические контуры 6G определяются не столько повышенной пропускной способностью каналов связи, сколько новыми методами оптимального управления широкими потоками данных. Требуется изменить наборы протоколов для перехода с клиент-серверной архитектуры на пиринговую, а также разработать системы децентрализованного хранения данных. Однако и этого недостаточно. Разработчики 6G ставят передо собой амбициозные задачи по децентрализации, пытаясь контролировать все сферы ИТ.

6G: децентрализованная сеть и интеллектуальная сервисная архитектура

На фоне активного развертывания коммерческих сетей 5G мировое научно-инженерное сообщество уже рассматривает идеи реализации систем следующего, шестого поколения. Для 6G предполагается разработать распределенную, децентрализованную интеллектуальную сеть нового поколения. Однако нынешние схемы предоставления приложений основаны на централизованной сервисной архитектуре, а идеи повсеместных периферийных вычислений и децентрализованных технологий на основе искусственного интеллекта пока не получили реального воплощения.

Архитектура Интернета будущего

Контент — главный элемент информационно-центричной модели сети. Его можно кэшировать и перераспределять в рамках такой сети. Внедрение этой модели в крупномасштабной беспроводной сети Интернета вещей, с одной стороны, позволило бы существенно повысить ее эффективность, а с другой — оставило бы за бортом многие традиционные решения для безопасности. Однако на этом пути остается еще много проблем обеспечения безопасности и приватности.

Как бороться с фейками в Сети

Фейковые новости наносят ущерб предприятиям — под прицелом кампаний по дезинформации могут оказаться любые отрасли. Современные технологии классификации текстов, основанные на машинном обучении, позволяют ускорить и частично автоматизировать процесс отсева фейков.

Безопасность 5G

Сети связи пятого поколения заставили пересмотреть представления о безопасности данных, принципах управления ими и обеспечения контроля за работой подключенных устройств. С появлением сервисов 5G возникли новые направления атак, а у злоумышленников появились новые цели.

Тестирование безопасности

Любое дополнительное подключение к Интернету вещей нового устройства, создающего дополнительные возможности для пользователей, увеличивает вероятность кибератак, число которых растет вместе с распространением оборудования, имеющего стандартные элементы, например порты Ethernet и программный стек Linux. Риск-ориентированное тестирование безопасности, выполняемое с помощью сочетания оптимально подобранных методов и инструментов, позволяет укреплять безопасность критически важных систем в рамках четко заданных процессов. Какие технологии тестирования безопасности промышленного класса доступны сегодня?

Качество данных: от стратегии к практике

Данные — топливо для систем искусственного интеллекта, сырье для аналитических алгоритмов и основа для систем автоматизации бизнес-процессов. Однако наивно ожидать, что данные изначально будут чистыми и пригодными для обработки, а если исходные данные некорректны, то и результаты будут соответствующими. Что можно сделать для устранения дефектов в данных? Как определить, что следует исправить, а что нет? Как узнать, когда надо устранить проблему, а когда лучше ничего не трогать? Иначе говоря: как управлять качеством данных?