我有一个基于 C++ 的 MapReduce 作业,并且正在使用 Hadoop 流。
7
但是,即使我18
在命令行配置中将它们设置为;每个节点的最大减速器数量最终也是如此mapred.tasktracker.reduce.tasks.maximum=18
;
还有什么可以阻止 reducer 发出更多的 reduce 任务吗?
我有一个基于 C++ 的 MapReduce 作业,并且正在使用 Hadoop 流。
7
但是,即使我18
在命令行配置中将它们设置为;每个节点的最大减速器数量最终也是如此mapred.tasktracker.reduce.tasks.maximum=18
;
还有什么可以阻止 reducer 发出更多的 reduce 任务吗?