0

我希望在 Bigtable 中构建一个(历史)表,该表将是 30TB 并且还在增长。我预计单个每日批处理负载为 200GB,并且偶尔会在某个键范围内进行批处理查询。Bigtable 中每个节点的 TB 数有哪些指导?我已经阅读了一些 Cassandra 的倾斜帖子,建议每个节点可用 1TB,以及其他一些建议每个 HBase 节点 6-12TB 的帖子。我在 Google Bigtable 文档中找不到任何明确的指导。

4

1 回答 1

1

工程师说:这真的取决于工作量 - 你应该尝试一个长时间的多天实验,理想情况下你会有一个很大的节点数并导入所有数据,然后调整到最小的节点大小,然后执行读/写您期望几天的工作量,特别是监控 cpu 使用情况。

我们正在编写有关过时/冷用例的说明。

于 2016-11-04T17:13:39.947 回答