1

我完成了本教程 在 Ubuntu Linux(单节点集群)上运行 Hadoop,一切正常。之后,我尝试了在 Ubuntu Linux(多节点集群)上运行 Hadoop,在此处输入链接描述,但出现以下错误:

日志文件:

    2012-11-15 18:40:39,258 WARN org.apache.hadoop.mapred.ReduceTask: java.io.FileNotFoundException: http://localhost:50060/mapOutput?job=job_201211151832_0002&map=attempt_201211151832_0002_m_000000_0&reduce=0
at sun.net.www.protocol.http.HttpURLConnection.getInputStream(HttpURLConnection.java:1613)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.getInputStream(ReduceTask.java:1639)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.setupSecureConnection(ReduceTask.java:1575)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.getMapOutput(ReduceTask.java:1483)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.copyOutput(ReduceTask.java:1394)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.run(ReduceTask.java:1326)

终端错误:

12/11/15 18:42:18 WARN mapred.JobClient: Error reading task outputhttp://localhost:50060/tasklog?plaintext=true&attemptid=attempt_201211151832_0002_m_000001_0&filter=stderr

我还检查了是否是日志目录磁盘空间不足的问题,但事实并非如此。

我正在使用 Hadoop 1.0.4。

是什么导致了这个错误?

一些附加信息:主节点是 LinuxMint 13 x64 (Oracle Java 7 x64),从节点是 Ubuntu 12.04 x86 (Oracle Java x86)。

使用两个不同版本的 Java(x86 和 x64)是否可能导致此错误?

4

0 回答 0