1

我提供了一个 5 MB 大小的 JSON 文件作为 Azure 流分析的输入,我收到以下错误。

“选定的文件‘文件名’必须在 1 到 2097152 字节之间”

选择的流单元数为 3。如何使流分析读取大型 Json 文件作为输入?

4

2 回答 2

1

我认为这是ASA作业测试的限制,您只能在2M以下的查询编辑器中上传json文件。

在此处输入图像描述

根据官方文档中的说法

对于在云中存储大量非结构化数据的方案,Azure Blob 存储提供了一种经济高效且可扩展的解决方案。Blob 存储中的数据通常被认为是静态数据;但是,流分析可以将 blob 数据作为数据流进行处理。

我建议您将大型​​ json 文件存储到 blob 存储中,它将作为数据流处理。

于 2019-05-08T09:14:23.037 回答
0

将大型 json 文件存储到 Blob 存储中并作为流分析的输入提供。谢谢@Jay龚

于 2019-05-14T10:57:56.403 回答