1

我尝试在集群服务器机器上运行 hadoop。但是,问题是服务器机器使用共享目录,但文件目录实际上不在一个磁盘中。所以,我想如果我在每台机器(从机)中配置不同的数据节点目录,我可以在没有磁盘/存储瓶颈的情况下运行 hadoop。

如何在每个从属节点中以不同的方式配置数据节点,或者如何配置主节点的设置以在使用“start-dfs.sh”启动名称节点和数据节点时找到安装在从节点的不同目录中的 hadoop?

或者,这种环境有什么奇特的方法吗?

谢谢!

4

0 回答 0