23

假设我们有一个包含 600 万条记录的表。有 16 个整数列和几个文本列。它是只读表,因此每个整数列都有一个索引。每条记录大约 50-60 字节。

表名是“Item”
服务器是:12 GB RAM,1,5 TB SATA,4 个核心。postgres 的所有服务器。
此数据库中有更多表,因此 RAM 不会覆盖所有数据库。

我想在表“项目”中添加一列“a_elements”(大整数的数组类型)每条记录在该列中的元素不超过 50-60 个。

之后,我将在此列上创建索引 GIN,典型的查询应如下所示:

select * from item where ...... and '{5}' <@ a_elements;

我还有第二个更经典的选择。

不要将列 a_elements 添加到表项,而是创建具有两列的表元素:

  • id_item
  • id_element

该表将有大约 2 亿条记录。

我能够对这些表进行分区,因此表元素中的记录数将减少到 2000 万,表项中的记录数将减少到 500 K。

第二个选项查询如下所示:

select item.* 
from item 
    left join elements on (item.id_item=elements.id_item) 
where .... 
and 5 = elements.id_element

我想知道从性能的角度来看,哪种选择会更好。postgres 是否能够在单个查询中使用带有索引 GIN(选项 1)的许多不同索引?

我需要做出正确的决定,因为导入这些数据需要 20 天。

4

1 回答 1

18

我认为你应该使用一张elements桌子:

  • Postgres 将能够使用统计信息来预测在执行查询之前将匹配多少行,因此它将能够使用最佳查询计划(如果您的数据分布不均匀则更为重要);

  • 您将能够使用本地化查询数据CLUSTER elements USING elements_id_element_idx

  • 当 Postgres 9.2 发布时,您将能够利用仅索引扫描;

但我对 10M 元素做了一些测试:

create table elements (id_item bigint, id_element bigint);
insert into elements
  select (random()*524288)::int, (random()*32768)::int
    from generate_series(1,10000000);

\timing
create index elements_id_item on elements(id_item);
Time: 15470,685 ms
create index elements_id_element on elements(id_element);
Time: 15121,090 ms

select relation, pg_size_pretty(pg_relation_size(relation))
  from (
    select unnest(array['elements','elements_id_item', 'elements_id_element'])
      as relation
  ) as _;
      relation       | pg_size_pretty 
---------------------+----------------
 elements            | 422 MB
 elements_id_item    | 214 MB
 elements_id_element | 214 MB



create table arrays (id_item bigint, a_elements bigint[]);
insert into arrays select array_agg(id_element) from elements group by id_item;

create index arrays_a_elements_idx on arrays using gin (a_elements);
Time: 22102,700 ms

select relation, pg_size_pretty(pg_relation_size(relation))
  from (
    select unnest(array['arrays','arrays_a_elements_idx']) as relation
  ) as _;
       relation        | pg_size_pretty 
-----------------------+----------------
 arrays                | 108 MB
 arrays_a_elements_idx | 73 MB

所以另一方面数组更小,索引更小。在做出决定之前,我会进行一些 200M 元素测试。

于 2012-08-03T11:46:49.960 回答