1

我试图在我的电脑上使用 Ubuntu 12.10 设置 Hadoop 单节点集群。参考Michael-noll.com 上的教程

  • 一切都很顺利,直到我执行了' /usr/local/hadoop/bin/start-all.sh '命令

  • 之后我执行了 java 进程状态“ /usr/local/hadoop$ jps

然后我发现 , Data Node,Task Tracker没有Name Node列出(即不工作)

任何人都可以在这种情况下提供帮助。

4

5 回答 5

1

重置您的 core-site.xml 文件

  <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/rlk/hduser</value>
  </property>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost/</value>
  </property>
于 2013-10-10T17:17:09.103 回答
0
  1. 好吧,我认为您将 Hadoop 安装到/usr/local/hadoop

  2. 当你运行时start-all.sh,hadoop 会将日志写入/usr/local/hadoop/logs目录,但是,可能 Hadoop 没有对该目录的写入权限。

  3. 请检查所有的日志文件,/usr/local/hadoop/logs/看看是否有问题。

  4. 如何解决?

    4.1 修改/usr/local/hadoop/conf/hadoop-env.sh,即添加export HADOOP_LOG_DIR=/tmp/hadoop/logs

    4.2 重启Hadoop,再次jps,查看日志文件

  5. 如果您再次遇到问题,我建议您在此处发布相关日志。:)

于 2013-08-10T22:40:49.123 回答
0

core-site.xml您应该对您在for property中提到的目录具有写权限hadoop.tmp.dir。我已在此链接Hadoop 系列单节点安装中对此进行了解释。

于 2014-01-29T05:54:38.567 回答
0

格式化名称节点并再次使用start-all.sh命令启动所有服务并检查使用的状态jps。如果您在不停止服务的情况下退出应用程序,则可能会发生这种情况。因此,在您退出应用程序之前,请确保您已停止使用stop-all.sh.

于 2013-08-10T13:10:33.743 回答
0

包装验证

  1. $ rpm ­‐ql hadoop-­‐0.20-­‐conf-­‐pseudo

格式化 NameNode

  1. sudo ­‐u hdfs hdfs namenode-­‐format

  2. $ for service in /etc/init.d/hadoop* > do > sudo $service stop > done

启动 HDFS

  1. 启动 HDFS

    $ for service in /etc/init.d/hadoop-­‐hdfs-­‐* > do > sudo $service start > done

更改本地主机属性

5.更改 localhost 属性 http://localhost:50070 通过执行上述步骤,您可以启动您的 namenode 和 datanode 服务。

于 2015-06-15T10:57:52.730 回答