问题标签 [system.io.compression]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - 设置 ZipArchiveEntry.LastWriteTime 会以秒为单位丢失精度
我正在尝试设置,ZipArchiveEntry.LastWriteTime
以便在提取时它是“精确”相同的时间,但我得到了随机的时差。这是一个具体的例子。
此代码输出:
关于如何使日期准确的任何想法?当我LastWriteTime
根据输出设置它时,它似乎很好,但是当我提取它时,它是错误的。
c# - 下载多个文件,因为 zip 引发了“System.NotSupportedException”类型的异常
我正在尝试以 zip 格式下载多个文件。我已经关注了我在网上找到的每一件事,但仍然失败。
这是我的代码。
“ newfile ”变量是“ filename ”变量中内容的样本数据。
乍一看,代码运行没有错误,但没有下载文件。如果我在“”方法之后放置一个断点zip.CreateEntryFromFile
,在里面,我可以看到它抛出异常。
zip.Entries 引发了“System.NotSupportedException”类型的异常
谁能指出我这里的确切问题?
azure - Azure Block Blob:“指定的阻止列表无效。” 压缩 Blob 之间大于 2GB 的文件时出现 Microsoft.Azure.Storage.StorageException
当我将文件上传到一个 blob (Blob1) 时会出现此问题,该 blob 又运行后台压缩服务。后台服务从 Blob1 流式传输文件,对其进行压缩,并将其作为 zip 文件存储在单独的 Blob (Blob2) 中以缓存供用户下载。
对于小于 2GB 的文件,该过程正常工作,但当文件大小大于 2GB 时会引发 Micrososft.Azure.Storage.StorageException。
使用 Microsoft.Azure.Storage.Blob 11.2.2
示例代码
c# - 将文件从一个 Zip 文件复制到另一个
在某些情况下,我将文件从一个 zip 文件复制到另一个文件。我想知道是否有比我想出的更好的方法来做到这一点:
提示和建议将不胜感激。
c# - ZipFile 方法性能缓慢
我正在编写一个代码来压缩/压缩 C# 中的文件夹和文件,为此,我正在使用 System.IO.Compression 中的 ZipFile 方法。现在,如果我使用 Winrar(最快模式)创建一个 zip 文件,压缩文件夹所需的时间要少得多,并且它创建的 zip 文件的大小比使用我的程序创建的 zip 文件的大小要小。有没有办法可以提高我的程序的性能?
powershell - PowerShell用字节数组读写压缩文件
最后更新:原来我不需要二进制作家。我可以将内存流从一个存档复制到另一个存档。
我正在重新编写一个适用于档案的 PowerShell 脚本。我在这里使用了两个功能
并且可以成功地读写文件到存档。我已经发布了整个程序,以防万一有人帮助我更清楚。
但是,存在三个问题(除了我真的不知道自己在做什么的事实之外)。
1.) 大多数文件在尝试运行时都会出现此错误
Add-ZipEntry -ZipFilePath ($OriginalArchivePath + $PartFileDirectoryName) -EntryPath $entry.FullName -Content $fileBytes}
无法将值“507”转换为类型“System.Byte”。错误:“对于无符号字节,值太大或太小。” (用字节数组中的任何数字替换 507)
2.) 当它读取一个文件并将其添加到 zip 存档 (*.imscc) 时,它会在文件内容的开头添加一个字符“a”。
3.)唯一不会出错的文件是文本文件,当我真的希望它处理任何文件时
感谢您的任何帮助!
更新:我尝试使用 System.IO.BinaryWriter,但错误相同。