Office 365 — превосходная платформа для компаний любого размера. Она предоставляет пользователям доступ к различным приложениям и службам, необходимым для ведения бизнеса. Один из вопросов, на которые мне часто приходится отвечать, относится к выборке локальных данных из бизнес-приложений в Office 365. Это связано с тем, что многим компаниям требуется постепенно переходить в «облако» при одновременном предоставлении возможностей типа панели мониторинга или даже механизмов создания, чтения, обновления и удаления, или create, read, update and delete (CRUD), которые использовались при локальной работе.

Существует несколько вариантов реализации такого подхода, которые успешно работают при распространении охвата данных на Office 365.

Первый вариант — использовать шлюз управления данными Microsoft. Его можно загрузить по адресу: www.microsoft.com/en-us/download/details.aspx? id=39717.

Шлюз управления данными Micro­soft может предоставлять следующие службы:

  • On-premises Data using Hybrid. Вы можете подключить локальные данные к «облачным» службам, чтобы получить преимущества этих служб, одновременно работая с локальными данными.
  • Secure Data Access. Вы можете определить, какие локальные источники данных предоставляются шлюзом управления данными, который проверяет подлинность запроса данных из «облачных» служб и защищает локальные источники данных.
  • Easy Management. Вам предоставляется полный мониторинг и журнал всех действий в шлюзе управления данными.

Для работы службы шлюза нет необходимости открывать корпоративный брандмауэр, подключения выполняются с использованием учетных данных, предоставляемых вашей компанией. Кроме того, все данные сжимаются и пересылаются параллельно. На рисунке 1 показана диаграмма потока команд и потока данных для шлюза управления данными (источник изображения: https://docs.microsoft.com/en-us/azure/data-factory/media/data-factory-data-management-gateway/data-flow-using-gateway.png).

Поток команд и поток данных шлюза управления данными
Рисунок 1. Поток команд и поток данных шлюза управления данными

Второй вариант — задействовать инфраструктуру данных Azure, она показана на рисунке 2 (источник изображения: https://azurecomcdn.azureedge.net/cvt-041bbcf179b13cb902344ce739d43e8de4af91df7331ee5efdf757329a0d2240/images/page/services/data-factory/data-factory-diagram.png). Возможно, вам не приходилось слышать о ней, но это центральная служба Microsoft Azure, которой вы можете воспользоваться. Инфраструктура данных Azure — «облачная» служба интеграции данных, которая выполняет оркестровку и автоматизирует перемещение и преобразование данных. Вы можете строить решения для интеграции данных, принимающие входные данные из различных хранилищ, преобразовывать и обрабатывать данные и публиковать выходные данные в других хранилищах. Инфраструктура данных Azure обеспечивает:

  • удобную работу с разнородными хранилищами и системами обработки данных;
  • преобразование данных в доверенную информацию;
  • мониторинг конвейеров данных в одном месте.
Инфраструктура данных Azure
Рисунок 2. Инфраструктура данных Azure

Этот процесс выполняется с использованием конвейеров, действий и наборов данных наряду с расписаниями для выполнения коллекций данных. Дополнительные сведения можно найти в документах, перечисленных во врезке «Дополнительная информация».

Наконец, вы можете построить нечто совершенно уникальное и подготовить компоненты RESTful API, которые позволяют извлечь необходимые данные из локального хранилища в Office 365. Вы можете создать надстройку или использовать SharePoint Framework для работы с данными независимо от их местоположения. Пример использования надстройки, взаимодействующей с локальной базой данных SQL можно найти по адресу: https://blogs.msdn.microsoft.com/alimaz/2014/07/31/connect-sharepoint-online-to-an-on-premises-sql-server-from-an-azure-provider-hosted-app-using-hybrid-connections/.

В целом главное — определить конечную цель, каким образом будут использоваться данные и как должно быть организовано взаимодействие с пользователями сайта.

Дополнительная информация

  • https://docs.microsoft.com/en-us/azure/data-factory/data-factory-create-pipelines
  • https://docs.microsoft.com/en-us/azure/data-factory/data-factory-create-datasets
  • https://docs.microsoft.com/en-us/azure/data-factory/data-factory-scheduling-and-execution