我正在尝试以 25% 的压缩率压缩时间序列数据集。这对我来说变成了仇杀。
数据是 1 个月内的 1 分钟间隔历史股票报价(参见数据集注释),缺失数据为 0。这相当于大约 9000 个 uint32_t 类型的数据点(我不做小数)
我的第一次尝试是对所有数据使用 FastPFor 压缩。这导致了约 80% 的压缩比。还不够好。所以 -
我首先摆脱所有时间戳(明显)
然后我对历史数据进行了排序并删除了所有重复项。这将唯一值的数量从 ~ 5000 减少到 1000。从那里,我使用差分SIMD 压缩算法进一步压缩它。这些也有点包装。这导致最终约 5% 的压缩比。伟大的!问题来了。
要重建数据集,您必须能够将其按顺序放回原处。我的想法是为上面每个处理过的值设置倒排索引——每个索引都指向它的原始位置。这当然只是添加了 9000 个数字。这使尺寸几乎达到原始尺寸。
例子:
Values Indexes
10 ===> 40, 20, 55, 100, 56, 21
25 ===> 1, 5
...
结果,我尝试压缩倒排索引。
- 对它们进行排序
- 去掉与前一个值 (RLE) 相比 +1 的任何值
- 使用 Lemire 的 SIMDCompression github 压缩每个索引列表(我还尝试了他的FastPFor算法)
不幸的是,这种压缩索引的尝试并不好。在实际压缩使用每个整数 20-64 位之后,它只产生了约 75% 的压缩率。请注意,之前我提到我使用的是 32 位数字。压缩使索引列表只有 1 个数字,是其原始大小的 2 倍(我希望它保持不变)。
使用倒排索引的尝试是徒劳的——当它与原始大小相当时,不足以证明额外处理是合理的。
我还有一些其他的想法:
确定最常见的数字序列,使用“霍夫曼”类型编码,您可以在其中指定某个值来表示它。
压缩算法在处理更多数据时效果更好 - 可能将所有索引连接到 1 个数组中,然后压缩一次?
压缩倒排索引的最佳方法是什么?
有理论上的最小压缩吗?
你知道我可以用什么方法来代替这个吗?
任何输入表示赞赏。
示例数据
- 使用索引“quote --> [indexes]”格式化的股票价格- (不对索引进行处理)
笔记
- 索引的使用将仅用于重建数据集,而不用于任何其他查询。