7

我将文件存储在 blob 存储帐户中的一个容器中。我需要在包含第一个容器中的文件的第二个容器中创建一个 zip 文件。

我有一个使用工作者角色和 DotNetZip 工作的解决方案,但由于 zip 文件最终大小可能为 1GB,我担心在进程中完成所有工作、使用MemoryStream对象等并不是最好的方法。我最担心的是内存使用和释放资源,因为这个过程每天可能发生几次。

下面是一些非常精简的代码,显示了工作者角色的基本过程:

using (ZipFile zipFile = new ZipFile())
{
    foreach (var uri in uriCollection)
    {
        var blob = new CloudBlob(uri);

        byte[] fileBytes = blob.DownloadByteArray();

        using (var fileStream = new MemoryStream(fileBytes))
        {
            fileStream.Seek(0, SeekOrigin.Begin);

            byte[] bytes = CryptoHelp.EncryptAsBytes(fileStream, "password", null);

            zipFile.AddEntry("entry name", bytes);
        }
    }

    using (var zipStream = new MemoryStream())
    {
        zipFile.Save(zipStream);
        zipStream.Seek(0, SeekOrigin.Begin);

        var blobRef = ContainerDirectory.GetBlobReference("output uri");
        blobRef.UploadFromStream(zipStream);
    }

}

有人可以提出更好的方法吗?

4

2 回答 2

3

在撰写此问题时,我不知道 Azure 中可用的 LocalStorage 选项。我能够将文件单独写入此文件并在 LocalStorage 中使用它们,然后将它们写回 blob 存储。

于 2012-01-28T12:11:59.477 回答
1

如果您担心的只是您的内存流占用了太多内存,那么您可以做的是实现自己的流,并且在读取流时,您将 zip 文件添加到流中并从流中删除已读取的文件。这将使您的内存流大小保持在一个文件的大小。

于 2011-12-27T04:53:47.117 回答