如何读取大型JSON文件作为Azure流分析的输入

时间:2019-05-08 08:38:22

标签: azure azure-stream-analytics stream-analytics

我正在提供5 MB大小的JSON文件作为Azure流分析的输入,并且出现以下错误。

“所选文件'文件名'必须介于1到2097152字节之间”

所选的流式传输单元数为3。如何使Stream Analytics读取大Json文件作为输入?

2 个答案:

答案 0 :(得分:1)

我认为这是ASA作业测试的局限性,您只能将json文件上传到2M以下的查询编辑器中。

enter image description here

基于正式文档中的statements

  

对于要存储大量非结构化数据的方案   在云中,Azure Blob存储提供了经济高效且可扩展的   解。 Blob存储中的数据通常被认为是静态数据。   但是,可以通过Stream将blob数据作为数据流处理   分析。

我建议您将大型​​json文件存储到blob存储中,并将其作为数据流进行处理。

答案 1 :(得分:0)

将大型json文件存储到Blob存储中,并作为流分析的输入进行馈送。谢谢@周杰伦