所以我正在为 imorting 数据创建流程,因此可以将一些聚合列上传到 Azure Sql 数据库,然后再上传到表格模型。现在我将描述流程,以便有人可以讲述它的优点和缺点。
在这个开发阶段,流程是:
1.
用户将 CSV 文件导入我的 Web 服务(在 ASP.NET CORE 2.1 中)到 Azure Sql 数据库,用于导入我在 .NET Core 中使用 Sql Bulk Library。Web 服务和数据库将位于 azure 的服务器上。部分数据导入大约需要 20 分钟。
2.
数据导入完成后,我将调用 Azure 机器学习 Web 服务,该服务将计算帮助列,以便稍后使用 MDX 查询我可以更轻松、更有效地从表格模型中检索数据。例如,这些帮助栏将告诉用户上个月是否活跃。
3.
当 R 脚本完成计算时,它会使用新列更新 Azure Sql 数据库表。
4.
当数据库中的列更新时,我告诉 Azure 分析服务刷新数据库(不在 .net 核心版本中,因为它不支持 ADOM.NET)所以我创建了另一个 Web 服务(.NET 4.7)所以我可以从网络服务自动刷新它。
5.
所以最后新数据出现在表格模型上,这样我就可以使用带有 ADOM.NET 库的 MDX 查询来获取数据信息。
请告诉我这个流程是否有更好的解决方案。