63

原始问题

背景

众所周知,需要对 SQLite 进行微调以实现 50k 插入/秒的插入速度。这里有很多关于插入速度慢的问题以及大量的建议和基准。

还有人声称 SQLite 可以处理大量数据,50+ GB 的报告不会导致正确设置出现任何问题。

我已按照此处和其他地方的建议来实现这些速度,我对 35k-45k 插入/秒感到满意。我遇到的问题是,所有基准测试都只展示了 < 1m 记录的快速插入速度。我看到的是插入速度似乎与表大小成反比

问题

我的用例需要在链接表中存储 500m 到 1b[x_id, y_id, z_id]个元组 ( ) 几年(1m 行/天)。这些值都是介于 1 和 2,000,000 之间的整数 ID。上只有一个索引z_id

前 10m 行的性能非常好,大约 35k 插入/秒,但是当表有大约 20m 行时,性能开始受到影响。我现在看到大约 100 次插入/秒。

桌子的大小不是特别大。20m 行,磁盘大小约为 500MB。

该项目是用 Perl 编写的。

问题

这是 SQLite 中大型表的现实,还是有任何秘诀可以为超过 10m 行的表保持高插入率?

如果可能的话,我想避免的已知解决方法

  • 删除索引,添加记录,然后重新索引:这作为一种解决方法很好,但当数据库在更新期间仍然需要可用时不起作用。使数据库在x分钟/天内完全无法访问是行不通的
  • 将表格分成更小的子表格/文件:这将在短期内起作用,我已经尝试过。问题是我需要能够在查询时从整个历史记录中检索数据,这意味着最终我将达到 62 个表附件的限制。在临时表中附加、收集结果以及每次请求分离数百次似乎是很多工作和开销,但如果没有其他选择,我会尝试的。
  • Set SQLITE_FCNTL_CHUNK_SIZE : 我不知道 C (?!),所以我宁愿不学习它只是为了完成它。不过,我看不到任何使用 Perl 设置此参数的方法。

更新

根据Tim 的建议,尽管 SQLite 声称它能够处理大型数据集,但索引导致插入时间越来越慢,我对以下设置进行了基准比较:

  • 插入行数:1400 万
  • 提交批量大小:50,000 条记录
  • cache_size杂注:10,000
  • page_size编译指示:4,096
  • temp_store语用:记忆
  • journal_mode杂注:删除
  • synchronous杂注:关闭

在我的项目中,如下面的基准测试结果所示,创建了一个基于文件的临时表,并使用了 SQLite 对导入 CSV 数据的内置支持。然后将临时表附加到接收数据库,并使用 insert-select语句插入 50,000 行的集合。因此,插入时间并不反映 文件到数据库的插入时间,而是表到表的插入速度。考虑到 CSV 导入时间会降低 25-50% 的速度(一个非常粗略的估计,导入 CSV 数据不需要很长时间)。

显然,随着表大小的增加,拥有索引会导致插入速度变慢。

SQLite 插入速度和表大小图

从上面的数据中可以清楚地看出,正确的答案可以分配给Tim 的答案,而不是 SQLite 无法处理的断言。显然,如果索引该数据集不是您的用例的一部分,它可以处理大型数据集。为此,我一直在使用 SQLite 作为日志系统的后端,现在它不需要被索引,所以我对我所经历的减速感到非常惊讶。

结论

如果有人发现自己想要使用 SQLite 存储大量数据对其进行索引,那么使用分片可能是答案。我最终决定使用 MD5 哈希的前三个字符作为唯一列z来确定分配给 4,096 个数据库中的一个。由于我的用例本质上主要是存档,因此模式不会改变,查询也永远不需要分片遍历。数据库大小是有限制的,因为非常旧的数据将被减少并最终被丢弃,所以这种分片、杂注设置甚至一些反规范化的组合了我一个很好的平衡,基于上面的基准测试,保持插入速度至少 10k 次插入/秒。

4

5 回答 5

14

如果您的要求是找到一个特定z_idx_idsy_ids链接到它(与快速选择范围不同z_ids),您可以查看一个非索引哈希表嵌套关系数据库,它可以让您立即找到通往特别z_id是为了获得它的y_idsx_ids- 没有索引开销以及随着索引增长而在插入期间伴随的性能下降。为了避免聚集(又名桶冲突),请选择一种密钥散列算法,该算法将最大权重放在z_id具有最大变化(右加权)的数字上。

PS 使用 b-tree 的数据库起初可能比使用线性散列的 db 更快,但是随着 b-tree 的性能开始下降,插入性能将保持与线性散列相同。

PPS 回答@kawing-chiu 的问题:这里相关的核心特征是这样的数据库依赖于所谓的“稀疏”表,其中记录的物理位置由以记录键作为输入的散列算法确定。这种方法允许直接查找表中记录的位置,而无需索引的中介. 由于不需要遍历索引或重新平衡索引,因此随着表变得更加密集,插入时间保持不变。相比之下,对于 b 树,插入时间会随着索引树的增长而降低。具有大量并发插入的 OLTP 应用程序可以从这种稀疏表方法中受益。记录分散在整个表中。记录分散在稀疏表的“苔原”中的缺点是收集具有共同值的大型记录集(例如邮政编码)可能会更慢。散列稀疏表方法经过优化,可以插入和检索单个记录,以及检索相关记录的网络,而不是具有某些共同字段值的大型记录集。

嵌套关系数据库是一种允许一行的列中使用元组的数据库。

于 2013-04-04T11:25:50.123 回答
9

很好的问题和非常有趣的后续行动!

我只想简短地说一下:您提到将表分成较小的子表/文件并稍后附加它们不是一种选择,因为您将很快达到 62 个附加数据库的硬限制。虽然这完全正确,但我认为您没有考虑过中间选项:将数据分片到多个表中,但继续使用相同的单个数据库(文件)。


我做了一个非常粗略的基准测试,以确保我的建议确实对性能产生影响。

架构:

CREATE TABLE IF NOT EXISTS "test_$i"
(
    "i" integer NOT NULL,
    "md5" text(32) NOT NULL
);

数据 - 200 万行:

  • i= 1..2,000,000
  • md5= md5 十六进制摘要i

每笔交易 = 50,000INSERT秒。


数据库:1;表:1;索引:0

0..50000 records inserted in 1.87 seconds
50000..100000 records inserted in 1.92 seconds
100000..150000 records inserted in 1.97 seconds
150000..200000 records inserted in 1.99 seconds
200000..250000 records inserted in 2.19 seconds
250000..300000 records inserted in 1.94 seconds
300000..350000 records inserted in 1.94 seconds
350000..400000 records inserted in 1.94 seconds
400000..450000 records inserted in 1.94 seconds
450000..500000 records inserted in 2.50 seconds
500000..550000 records inserted in 1.94 seconds
550000..600000 records inserted in 1.94 seconds
600000..650000 records inserted in 1.93 seconds
650000..700000 records inserted in 1.94 seconds
700000..750000 records inserted in 1.94 seconds
750000..800000 records inserted in 1.94 seconds
800000..850000 records inserted in 1.93 seconds
850000..900000 records inserted in 1.95 seconds
900000..950000 records inserted in 1.94 seconds
950000..1000000 records inserted in 1.94 seconds
1000000..1050000 records inserted in 1.95 seconds
1050000..1100000 records inserted in 1.95 seconds
1100000..1150000 records inserted in 1.95 seconds
1150000..1200000 records inserted in 1.95 seconds
1200000..1250000 records inserted in 1.96 seconds
1250000..1300000 records inserted in 1.98 seconds
1300000..1350000 records inserted in 1.95 seconds
1350000..1400000 records inserted in 1.95 seconds
1400000..1450000 records inserted in 1.95 seconds
1450000..1500000 records inserted in 1.95 seconds
1500000..1550000 records inserted in 1.95 seconds
1550000..1600000 records inserted in 1.95 seconds
1600000..1650000 records inserted in 1.95 seconds
1650000..1700000 records inserted in 1.96 seconds
1700000..1750000 records inserted in 1.95 seconds
1750000..1800000 records inserted in 1.95 seconds
1800000..1850000 records inserted in 1.94 seconds
1850000..1900000 records inserted in 1.95 seconds
1900000..1950000 records inserted in 1.95 seconds
1950000..2000000 records inserted in 1.95 seconds

数据库文件大小:89.2 MiB。


数据库:1;表:1;索引:1 ( md5)

0..50000 records inserted in 2.90 seconds
50000..100000 records inserted in 11.64 seconds
100000..150000 records inserted in 10.85 seconds
150000..200000 records inserted in 10.62 seconds
200000..250000 records inserted in 11.28 seconds
250000..300000 records inserted in 12.09 seconds
300000..350000 records inserted in 10.60 seconds
350000..400000 records inserted in 12.25 seconds
400000..450000 records inserted in 13.83 seconds
450000..500000 records inserted in 14.48 seconds
500000..550000 records inserted in 11.08 seconds
550000..600000 records inserted in 10.72 seconds
600000..650000 records inserted in 14.99 seconds
650000..700000 records inserted in 10.85 seconds
700000..750000 records inserted in 11.25 seconds
750000..800000 records inserted in 17.68 seconds
800000..850000 records inserted in 14.44 seconds
850000..900000 records inserted in 19.46 seconds
900000..950000 records inserted in 16.41 seconds
950000..1000000 records inserted in 22.41 seconds
1000000..1050000 records inserted in 24.68 seconds
1050000..1100000 records inserted in 28.12 seconds
1100000..1150000 records inserted in 26.85 seconds
1150000..1200000 records inserted in 28.57 seconds
1200000..1250000 records inserted in 29.17 seconds
1250000..1300000 records inserted in 36.99 seconds
1300000..1350000 records inserted in 30.66 seconds
1350000..1400000 records inserted in 32.06 seconds
1400000..1450000 records inserted in 33.14 seconds
1450000..1500000 records inserted in 47.74 seconds
1500000..1550000 records inserted in 34.51 seconds
1550000..1600000 records inserted in 39.16 seconds
1600000..1650000 records inserted in 37.69 seconds
1650000..1700000 records inserted in 37.82 seconds
1700000..1750000 records inserted in 41.43 seconds
1750000..1800000 records inserted in 49.58 seconds
1800000..1850000 records inserted in 44.08 seconds
1850000..1900000 records inserted in 57.17 seconds
1900000..1950000 records inserted in 50.04 seconds
1950000..2000000 records inserted in 42.15 seconds

数据库文件大小:181.1 MiB。


数据库:1;表:20 个(每 100,000 条记录一个);索引:1 ( md5)

0..50000 records inserted in 2.91 seconds
50000..100000 records inserted in 10.30 seconds
100000..150000 records inserted in 10.85 seconds
150000..200000 records inserted in 10.45 seconds
200000..250000 records inserted in 10.11 seconds
250000..300000 records inserted in 11.04 seconds
300000..350000 records inserted in 10.25 seconds
350000..400000 records inserted in 10.36 seconds
400000..450000 records inserted in 11.48 seconds
450000..500000 records inserted in 10.97 seconds
500000..550000 records inserted in 10.86 seconds
550000..600000 records inserted in 10.35 seconds
600000..650000 records inserted in 10.77 seconds
650000..700000 records inserted in 10.62 seconds
700000..750000 records inserted in 10.57 seconds
750000..800000 records inserted in 11.13 seconds
800000..850000 records inserted in 10.44 seconds
850000..900000 records inserted in 10.40 seconds
900000..950000 records inserted in 10.70 seconds
950000..1000000 records inserted in 10.53 seconds
1000000..1050000 records inserted in 10.98 seconds
1050000..1100000 records inserted in 11.56 seconds
1100000..1150000 records inserted in 10.66 seconds
1150000..1200000 records inserted in 10.38 seconds
1200000..1250000 records inserted in 10.24 seconds
1250000..1300000 records inserted in 10.80 seconds
1300000..1350000 records inserted in 10.85 seconds
1350000..1400000 records inserted in 10.46 seconds
1400000..1450000 records inserted in 10.25 seconds
1450000..1500000 records inserted in 10.98 seconds
1500000..1550000 records inserted in 10.15 seconds
1550000..1600000 records inserted in 11.81 seconds
1600000..1650000 records inserted in 10.80 seconds
1650000..1700000 records inserted in 11.06 seconds
1700000..1750000 records inserted in 10.24 seconds
1750000..1800000 records inserted in 10.57 seconds
1800000..1850000 records inserted in 11.54 seconds
1850000..1900000 records inserted in 10.80 seconds
1900000..1950000 records inserted in 11.07 seconds
1950000..2000000 records inserted in 13.27 seconds

数据库文件大小:180.1 MiB。


如您所见,如果您将数据分片到多个表中,则插入速度几乎保持不变。

于 2013-06-14T13:47:12.623 回答
2

不幸的是,我想说这是 SQLite 中大型表的限制。它不是为在大规模或大容量数据集上运行而设计的。虽然我知道这可能会大大增加项目的复杂性,但您最好研究适合您需求的更复杂的数据库解决方案。

从您链接的所有内容来看,表大小与访问速度似乎是直接的权衡。不能两者兼得。

于 2013-04-03T04:28:55.313 回答
1

在我的项目中,我无法对数据库进行分片,因为它在不同的列上进行了索引。为了加快插入速度,我在创建过程中将数据库放在 /dev/shm (=linux ramdisk) 上,然后将其复制到本地磁盘。这显然只适用于一次写入、多次读取的数据库。

于 2015-07-08T16:21:16.337 回答
0

我怀疑索引的哈希值冲突会导致插入速度变慢。

当我们在一张表中有很多很多行时,索引列的哈希值冲突就会更频繁地发生。这意味着 Sqlite 引擎需要计算 2 次或 3 次,甚至 4 次的 hash 值,才能得到不同的 hash 值。

所以我想这是当表有很多行时 SQLite 插入速度慢的根本原因。

这一点可以解释为什么使用分片可以避免这个问题。谁是 SQLite 领域的真正专家来证实或否认我的观点?

于 2016-03-11T15:29:43.713 回答