我想编写一个Lambda函数来检索s3对象,将其下载到函数的/ tmp文件夹,然后对该对象运行crypto.createHash(algorithm)。但我需要一个超过500MB的对象大小的解决方案,因为这是一个Lambda临时存储限制。这有什么解决方法吗? 另外,如果我正在检索的对象是来自bucketpolicy的Glacier-storage类,如何使用Lambda下载它?我需要一个lambda用于检索而另一个用于下载吗?任何帮助表示赞赏,谢谢!
答案 0 :(得分:1)
您应该能够将S3对象的内容流式传输到哈希算法中,而无需将其存储在/tmp
文件夹中。您根本不必将其存储到本地磁盘。
关于存储在Glacier中的文件,因为这可能需要很长时间,因此您必须从一个函数调用触发恢复,然后在对象恢复后触发另一个调用来计算哈希值。