我提供了一个 5 MB 大小的 JSON 文件作为 Azure 流分析的输入,我收到以下错误。
“选定的文件‘文件名’必须在 1 到 2097152 字节之间”
选择的流单元数为 3。如何使流分析读取大型 Json 文件作为输入?
我提供了一个 5 MB 大小的 JSON 文件作为 Azure 流分析的输入,我收到以下错误。
“选定的文件‘文件名’必须在 1 到 2097152 字节之间”
选择的流单元数为 3。如何使流分析读取大型 Json 文件作为输入?
我认为这是ASA作业测试的限制,您只能在2M以下的查询编辑器中上传json文件。
根据官方文档中的说法。
对于在云中存储大量非结构化数据的方案,Azure Blob 存储提供了一种经济高效且可扩展的解决方案。Blob 存储中的数据通常被认为是静态数据;但是,流分析可以将 blob 数据作为数据流进行处理。
我建议您将大型 json 文件存储到 blob 存储中,它将作为数据流处理。
将大型 json 文件存储到 Blob 存储中并作为流分析的输入提供。谢谢@Jay龚