假设我在 Amazon elastic mapreduce 上启动了一个集群,并且有一个主节点实例、2 个核心节点实例和 15 个任务节点实例。
我想我使用 mapreduce 作业和增量上传将大约 1 TB 的数据上传到 hbase。
现在 -
如何找到表大小和区域拆分(字节)。通常在 CDH 上我会做一个 hadoop fs -du /hbase。但是我的主节点上没有 /hbase 目录。
我也很想知道区域服务器分配将如何工作。所以即使我有 100 个区域 - 如果我有 1 个主节点 - 这意味着整个 IO 将受到限制,对吗?
感谢和问候