将传输编码设置为分块的Azure函数

时间:2020-07-10 14:32:03

标签: azure-functions

我有一个Azure Funciton(https://github.com/MCKRUZ/CSVXLS2JSON),应该将其放入一个csv,xls或zip文件中并将该文档转换为json。现在我遇到的问题有两个方面

首先,如果我尝试上传超过100 MB的文件,则会告诉我该文件太大。我已通过允许您上传一个zip文件来解决此问题,该功能将解压缩然后处理。但是,生成的JSON有效负载过大。我“想”通过允许将Transfer-Encoding设置为chunk来解决此问题,但是我找不到关于如何完成此操作的任何在线文档。

有什么想法吗?

1 个答案:

答案 0 :(得分:0)

我想更多关于设计的问题:

  1. 您可以接受URL代替文件内容作为输入。这样,您就不受有效负载大小的限制。 URL可以是任何带有或不带有身份验证令牌的指向datalake /外部源的URL。
  2. 返回结果也是如此。不是C#专家,但是大多数不错的语言都允许您创建压缩的输入/输出流。从压缩的输入流读取,转换为json并写入压缩的输出流。最后返回输出流的内容。
  3. 以URL形式返回结果。将输出写入某处(例如datalake),然后返回一个URL。具有/不具有身份验证。