想象一下,在接下来的 10 年里,你拥有世界上所有的超级计算机。你的任务是尽可能无损地压缩 10 部完整的电影。另一个标准是普通计算机应该能够即时解压缩,并且不需要花费太多的 HD 来安装解压缩软件。
我的问题是,与当今最好的替代方案相比,您可以实现多少压缩?1%、5%、50%?更具体地说:给定一个固定的字典大小(如果它也被称为视频压缩),压缩是否存在理论上的限制?
想象一下,在接下来的 10 年里,你拥有世界上所有的超级计算机。你的任务是尽可能无损地压缩 10 部完整的电影。另一个标准是普通计算机应该能够即时解压缩,并且不需要花费太多的 HD 来安装解压缩软件。
我的问题是,与当今最好的替代方案相比,您可以实现多少压缩?1%、5%、50%?更具体地说:给定一个固定的字典大小(如果它也被称为视频压缩),压缩是否存在理论上的限制?
有一个理论限制:我建议阅读这篇关于信息论和鸽子洞原理的文章。它似乎以一种非常容易理解的方式总结了这个问题。
如果您有一个固定目录,其中包含您要压缩的所有电影,您可以只发送电影的 id 并让“解压缩”使用该索引查找数据。所以压缩可以是固定大小的 log2(N) 位,其中 N 是电影的数量。
我怀疑实际的下限比这个要高。
你真的是说无损吗?我想,今天的大部分视频压缩都是有损的。