2

我肯定遗漏了一些非常明显的东西,但谁能解释为什么在第二种情况下压缩率要好得多?!

案例 1:非常低的压缩率,有时甚至会增长。

using (var memoryStream = new System.IO.MemoryStream())
using (var gZipStream = new GZipStream(memoryStream, CompressionMode.Compress))
{
  new BinaryFormatter().Serialize(gZipStream, obj);
  gZipStream.Close();
  return memoryStream.ToArray();
}

案例 2:更好的压缩并且我没有得到尺寸增长。

using (MemoryStream msCompressed = new MemoryStream())
using (GZipStream gZipStream = new GZipStream(msCompressed, CompressionMode.Compress))
using (MemoryStream msDecompressed = new MemoryStream())
{
  new BinaryFormatter().Serialize(msDecompressed, obj);
  byte[] byteArray = msDecompressed.ToArray();

  gZipStream.Write(byteArray, 0, byteArray.Length);
  gZipStream.Close();
  return msCompressed.ToArray();
}

我已经完成了镜像解压缩,在这两种情况下,我都可以将其反序列化为源对象而不会出现任何问题。

以下是一些统计数据:

UncSize: 58062085B, Comp1: 46828139B, 0.81%

UncSize: 58062085B, Comp2: 31326029B, 0.54%

UncSize: 7624735B, Comp1: 7743947B, 1.02%

UncSize: 7624735B, Comp2: 5337522B, 0.70%

UncSize: 1237628B, Comp1: 1265406B, 1.02%

UncSize:1237628B,Comp2:921695B,0.74%

4

1 回答 1

7

您没有说您使用的是哪个版本的 .NET。在 4.0 之前的版本中,GZipStream按写入压缩数据。也就是说,它会压缩您发送给它的缓冲区。在您的第一个示例中,该Serialize方法可能会将非常小的缓冲区写入流(一次一个字段)。在您的第二个示例中,Serialize将整个对象序列化到内存流,然后将内存流的缓冲区写入GZipStream一大块。GZipStream当它有更大的缓冲区(64K 接近最佳值)时,它会做得更好。

在 .NET 4.0 中可能仍然是这种情况。我不记得我是否测试过它。

我过去处理这个问题的方式是使用BufferedStream

using (var mstream = new MemoryStream())
{
    using (var bstream = new BufferedStream(new GZipStream(mstream, CompressionMode.Compress), 65536))
    {
        new BinaryFormatter().Serialize(btream, obj);
    }
    return mstream.ToArray();
}

这样,压缩器就可以使用 64K 缓冲区。

在 .NET 4.0 之前,为 .NET 提供大于 64K 的缓冲区没有任何好处GZipStream。我看到一些信息表明 .NET 4.0 中的压缩器可以使用更大的缓冲区更好地进行压缩。但是,我自己没有测试过。

于 2012-08-28T14:18:19.560 回答