我将文件存储在blob存储帐户中的一个容器中。我需要在第二个容器中创建一个zip文件,其中包含第一个容器中的文件。
我有一个使用辅助角色和DotNetZip的解决方案,但因为zip文件的大小最终可能是1GB我担心使用MemoryStream
对象等进行所有正在进行的工作这样做的最佳方式。我最关心的是内存使用和释放资源,因为这个过程可能每天发生几次。
下面是一些非常精简代码,显示了辅助角色的基本过程:
using (ZipFile zipFile = new ZipFile())
{
foreach (var uri in uriCollection)
{
var blob = new CloudBlob(uri);
byte[] fileBytes = blob.DownloadByteArray();
using (var fileStream = new MemoryStream(fileBytes))
{
fileStream.Seek(0, SeekOrigin.Begin);
byte[] bytes = CryptoHelp.EncryptAsBytes(fileStream, "password", null);
zipFile.AddEntry("entry name", bytes);
}
}
using (var zipStream = new MemoryStream())
{
zipFile.Save(zipStream);
zipStream.Seek(0, SeekOrigin.Begin);
var blobRef = ContainerDirectory.GetBlobReference("output uri");
blobRef.UploadFromStream(zipStream);
}
}
有人可以提出更好的方法吗?
答案 0 :(得分:3)
在撰写此问题时,我不知道Azure中可用的LocalStorage选项。我能够单独编写文件并在LocalStorage中使用它们,然后将它们写回blob存储。