我正在研究 hadoop 中的概念验证,我可能会使用 HDP 和 HDF hortonwork 组件设置一个集群。
数据量真的很小,所以如果我没记错的话,每个节点的磁盘量可能不需要超过10 GB。
主节点和从节点的 CPU 数量和 RAM 的考虑标准是什么?
我正在研究 hadoop 中的概念验证,我可能会使用 HDP 和 HDF hortonwork 组件设置一个集群。
数据量真的很小,所以如果我没记错的话,每个节点的磁盘量可能不需要超过10 GB。
主节点和从节点的 CPU 数量和 RAM 的考虑标准是什么?