我正在提供5 MB大小的JSON文件作为Azure流分析的输入,并且出现以下错误。
“所选文件'文件名'必须介于1到2097152字节之间”
所选的流式传输单元数为3。如何使Stream Analytics读取大Json文件作为输入?
答案 0 :(得分:1)
我认为这是ASA作业测试的局限性,您只能将json文件上传到2M以下的查询编辑器中。
基于正式文档中的statements。
对于要存储大量非结构化数据的方案 在云中,Azure Blob存储提供了经济高效且可扩展的 解。 Blob存储中的数据通常被认为是静态数据。 但是,可以通过Stream将blob数据作为数据流处理 分析。
我建议您将大型json文件存储到blob存储中,并将其作为数据流进行处理。
答案 1 :(得分:0)
将大型json文件存储到Blob存储中,并作为流分析的输入进行馈送。谢谢@周杰伦