0

背景:我正在使用 Azure 本地存储。这应该被视为“易失性”存储。首先,我创建的文件和目录在 Web 角色实例上保留多长时间(在我的情况下有 2 个)?如果在每个用户使用完这些文件/目录后我不清理这些文件/目录,我是否需要担心存储空间不足?我正在做的是从一个单独的服务中提取多个文件,将它们存储在 Azure 本地存储中,将它们压缩成一个 zip 文件并存储该 zip 文件,然后最后将该 zip 文件流式传输到浏览器。

问题:这一切都很好,除了一个小问题。该文件似乎以异步方式流式传输到浏览器。因此,当我随后尝试从 azure 本地存储中删除压缩文件时,会引发异常,因为它仍在流式传输到浏览器的过程中。在文件完全流式传输到浏览器之后强制执行删除过程的最佳方法是什么?

这是我的代码:

                using (Service.Company.ServiceProvider CONNECT = new eZ.Service.CompanyConnect.ServiceProvider())
            {
                // Iterate through all of the files chosen
                foreach (Uri fileId in fileIds)
                {
                    // Get the int file id value from the uri
                    System.Text.RegularExpressions.Regex rex = new System.Text.RegularExpressions.Regex(@"e[B|b]://[^\/]*/\d*/(\d*)");
                    string id_str = rex.Match(fileId.ToString()).Groups[1].Value;
                    int id = int.Parse(id_str);

                    // Get the file object from eB service from the file id passed in
                    eZ.Data.File f = new eZ.Data.File(CONNECT.eZSession, id);
                    f.Retrieve("Header; Repositories");

                    string _fileName = f.Name;

                    try
                    {
                        using (MemoryStream stream = new MemoryStream())
                        {
                            f.ContentData = new eZ.ContentData.File(f, stream);

                            // After the ContentData is created, hook into the event
                            f.ContentData.TransferProgressed += (sender, e) => { Console.WriteLine(e.Percentage); };

                            // Now do the transfer, the event will fire as blocks of data is read
                            int bytesRead;
                            f.ContentData.OpenRead();
                            // Open the Azure Local Storage file stream
                            using (azure_file_stream = File.OpenWrite(curr_user_path + _fileName))
                            {
                                while ((bytesRead = f.ContentData.Read()) > 0)
                                {
                                    // Write the chunk to azure local storage
                                    byte[] buffer = stream.GetBuffer();
                                    azure_file_stream.Write(buffer, 0, bytesRead);
                                    stream.Position = 0;
                                }
                            }
                        }
                    }
                    catch (Exception e)
                    {
                        throw e;
                        //Console.WriteLine("The following error occurred:  " + e);
                    }
                    finally
                    {
                        f.ContentData.Close();
                    }
                } // end of foreach block

            } // end of eB using block

            string sevenZipDllPath = Path.Combine(Utilities.GetCurrentAssemblyPath(), "7z.dll");
            Global.logger.Info(string.Format("sevenZipDllPath: {0}", sevenZipDllPath));
            SevenZipCompressor.SetLibraryPath(sevenZipDllPath);

            var compressor = new SevenZipCompressor
            {
                ArchiveFormat = OutArchiveFormat.Zip,
                CompressionLevel = CompressionLevel.Fast
            };

            // Compress the user directory
            compressor.CompressDirectory(webRoleAzureStorage.RootPath + curr_user_directory, curr_user_package_path + "Package.zip");

            // stream Package.zip to the browser
            httpResponse.BufferOutput = false;
            httpResponse.ContentType = Utilities.GetMIMEType("BigStuff3.mp4");
            httpResponse.AppendHeader("content-disposition", "attachment; filename=Package.zip");

            azure_file_stream = File.OpenRead(curr_user_package_path + "Package.zip");
            azure_file_stream.CopyTo(httpResponse.OutputStream);
            httpResponse.End();

            // Azure Local Storage cleanup
            foreach (FileInfo file in user_directory.GetFiles())
            {
                file.Delete();
            }
            foreach (FileInfo file in package_directory.GetFiles())
            {
                file.Delete();
            }
            user_directory.Delete();
            package_directory.Delete();
        }
4

2 回答 2

1

你可以简单地在机器上运行一个工作,在创建一天后清理文件吗?这可以像任务调度程序中的批处理文件或从 WebRole.cs 启动的单独线程一样简单。如果本地空间低于某个阈值,您甚至可以使用AzureWatch自动重新映像您的实例

于 2013-07-24T20:52:38.537 回答
1

您能否将文件(尤其是用户下载的最终压缩文件)放在 Windows Azure blob 存储中?该文件可以公开,或创建共享访问签名,以便只有您提供 URL 的人才能下载它。将文件放在 blob 存储中以供下载可以减轻 Web 服务器上的一些压力。

于 2013-07-25T11:59:14.727 回答