假设我有 200 个输入文件和 20 个节点,每个节点有 10 个映射器插槽。Hadoop 是否总是平均分配工作,每个节点将获得 10 个输入文件并同时启动 10 个映射器?有没有办法强制这种行为?
问问题
183 次
假设我有 200 个输入文件和 20 个节点,每个节点有 10 个映射器插槽。Hadoop 是否总是平均分配工作,每个节点将获得 10 个输入文件并同时启动 10 个映射器?有没有办法强制这种行为?