我是 Hadoop 的新手,只是尝试 wordcount 示例。我只是建立一个参考http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/的节点
我将一个非常简单的文本上传到 HDFS,然后运行 wordcount.jar。
不知何故,reducer 需要很长时间才能处理。我知道这是 I/O 瓶颈,但有什么方法可以设置一些参数并使其更快?(大声笑,reduce 过程仍然是 0%,差不多 20 分钟)
13/06/04 15:53:14 INFO mapred.JobClient: map 100% reduce 0%