我们是否必须在hadoop集群的主节点和从节点上修改mapred-site.xml,以便并行执行map和reduce任务的最大数量等参数,或者只有主节点的配置更改就足够了。
在mapred-site.xml 中对主节点上的mapred.map.child.java.opts 和mapred.reduce.child.java.opts 等参数所做的更改是否也会在客户端节点上进行更改?或者我们都做了。
我们是否必须在主节点和客户端节点上指定 dfs.block.size 以使块大小不同于默认值?
如果没有,是否必须在主节点和客户端节点上都指定参数以优化 hadoop 集群?