1

我们是否必须在hadoop集群的主节点和从节点上修改mapred-site.xml,以便并行执行map和reduce任务的最大数量等参数,或者只有主节点的配置更改就足够了。

在mapred-site.xml 中对主节点上的mapred.map.child.java.opts 和mapred.reduce.child.java.opts 等参数所做的更改是否也会在客户端节点上进行更改?或者我们都做了。

我们是否必须在主节点和客户端节点上指定 dfs.block.size 以使块大小不同于默认值?

如果没有,是否必须在主节点和客户端节点上都指定参数以优化 hadoop 集群?

4

1 回答 1

1

您需要更改所有机器上的所有配置文件conf/*-site.xml。原因是,Hadoop 没有用于配置信息的单一全局位置。相反,集群中的每个 Hadoop 节点都有自己的一组配置文件,我们有责任确保它们在整个系统中保持同步。

于 2013-09-14T19:40:53.297 回答