基准测试表明,cereal
库反序列化我的数据结构(下文详述)所需的时间比从驱动器读取相同数据所需的时间长 100 倍:
benchmarking Read
mean: 465.7050 us, lb 460.9873 us, ub 471.0938 us, ci 0.950
std dev: 25.79706 us, lb 22.19820 us, ub 30.81870 us, ci 0.950
found 4 outliers among 100 samples (4.0%)
4 (4.0%) high mild
variance introduced by outliers: 53.460%
variance is severely inflated by outliers
benchmarking Read + Decode
collecting 100 samples, 1 iterations each, in estimated 6.356502 s
mean: 68.85135 ms, lb 67.65992 ms, ub 70.05832 ms, ci 0.950
std dev: 6.134430 ms, lb 5.607914 ms, ub 6.755639 ms, ci 0.950
variance introduced by outliers: 74.863%
variance is severely inflated by outliers
在我的一个程序中分析该数据结构的典型反序列化使用情况也支持这一点,其中 98% 的时间用于反序列化数据,1% 是IO
核心算法:
COST CENTRE MODULE %time %alloc
getWord8 Data.Serialize.Get 30.5 40.4
unGet Data.Serialize.Get 29.5 17.9
getWord64be Data.Serialize.Get 14.0 10.7
getListOf Data.Serialize.Get 10.2 12.8
roll Data.Serialize 8.2 11.5
shiftl_w64 Data.Serialize.Get 3.4 2.9
decode Data.Serialize 2.9 3.1
main Main 1.3 0.6
我要反序列化的数据结构是一个IntMap [Triplet Atom]
,组件类型的定义如下:
type Triplet a = (a, a, a)
data Point = Point {
_x :: {-# UNPACK #-} !Double ,
_y :: {-# UNPACK #-} !Double ,
_z :: {-# UNPACK #-} !Double }
data Atom = Atom {
_serial :: {-# UNPACK #-} !Int ,
_r :: {-# UNPACK #-} !Point ,
_n :: {-# UNPACK #-} !Word64 }
我正在使用 default和提供的实例IntMap
,以及我的自定义类型的以下类型和实例:(,,)
[]
cereal
instance Serialize Point where
put (Point x y z) = do
put x
put y
put z
get = Point <$> get <*> get <*> get
instance Serialize Atom where
put (Atom s r n) = do
put s
put r
put n
get = Atom <$> get <*> get <*> get
所以我的问题是:
- 为什么反序列化一般这么慢?
- 有什么方法可以改变我的数据结构(即
IntMap
/[]
)以使反序列化更快? - 有什么方法可以更改我的数据类型(即
Atom
/Point
)以使反序列化更快? - 是否有比
cereal
Haskell 更快的替代方案,或者我应该将数据结构存储在 C-land 中以进行更快速的反序列化(即使用mmap
)?
我正在反序列化的这些文件被用于搜索引擎的子索引,因为完整索引无法放入目标计算机(这是消费级桌面)的内存中,因此我将每个子索引存储在磁盘上并读取 +解码驻留在内存中的初始全局索引指向的子索引。另外,我不关心序列化速度,因为搜索索引是最终用户的瓶颈,而当前的序列化性能cereal
对于生成和更新索引来说是令人满意的。
编辑:
尝试了 Don 使用节省空间的三元组的建议,这使速度提高了四倍:
benchmarking Read
mean: 468.9671 us, lb 464.2564 us, ub 473.8867 us, ci 0.950
std dev: 24.67863 us, lb 21.71392 us, ub 28.39479 us, ci 0.950
found 2 outliers among 100 samples (2.0%)
2 (2.0%) high mild
variance introduced by outliers: 50.474%
variance is severely inflated by outliers
benchmarking Read + Decode
mean: 15.04670 ms, lb 14.99097 ms, ub 15.10520 ms, ci 0.950
std dev: 292.7815 us, lb 278.8742 us, ub 308.1960 us, ci 0.950
variance introduced by outliers: 12.303%
variance is moderately inflated by outliers
但是,它仍然是使用 25 倍于 IO 的时间的瓶颈。另外,任何人都可以解释为什么唐的建议有效吗?这是否意味着如果我切换到列表以外的其他东西(比如数组?),它也可能会有所改进?
编辑#2:刚刚切换到最新的 Haskell 平台并重新运行谷物分析。信息要详细得多,我已经提供了它的hpaste。