我试图在我的电脑上使用 Ubuntu 12.10 设置 Hadoop 单节点集群。参考Michael-noll.com 上的教程
一切都很顺利,直到我执行了' /usr/local/hadoop/bin/start-all.sh '命令
之后我执行了 java 进程状态“ /usr/local/hadoop$ jps ”
然后我发现 , Data Node
,Task Tracker
没有Name Node
列出(即不工作)
任何人都可以在这种情况下提供帮助。
我试图在我的电脑上使用 Ubuntu 12.10 设置 Hadoop 单节点集群。参考Michael-noll.com 上的教程
一切都很顺利,直到我执行了' /usr/local/hadoop/bin/start-all.sh '命令
之后我执行了 java 进程状态“ /usr/local/hadoop$ jps ”
然后我发现 , Data Node
,Task Tracker
没有Name Node
列出(即不工作)
任何人都可以在这种情况下提供帮助。
重置您的 core-site.xml 文件
<property>
<name>hadoop.tmp.dir</name>
<value>/home/rlk/hduser</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost/</value>
</property>
好吧,我认为您将 Hadoop 安装到/usr/local/hadoop
当你运行时start-all.sh
,hadoop 会将日志写入/usr/local/hadoop/logs
目录,但是,可能 Hadoop 没有对该目录的写入权限。
请检查所有的日志文件,/usr/local/hadoop/logs/
看看是否有问题。
如何解决?
4.1 修改/usr/local/hadoop/conf/hadoop-env.sh
,即添加export HADOOP_LOG_DIR=/tmp/hadoop/logs
4.2 重启Hadoop,再次jps,查看日志文件
如果您再次遇到问题,我建议您在此处发布相关日志。:)
core-site.xml
您应该对您在for property中提到的目录具有写权限hadoop.tmp.dir
。我已在此链接Hadoop 系列单节点安装中对此进行了解释。
格式化名称节点并再次使用start-all.sh
命令启动所有服务并检查使用的状态jps
。如果您在不停止服务的情况下退出应用程序,则可能会发生这种情况。因此,在您退出应用程序之前,请确保您已停止使用stop-all.sh
.
包装验证
$ rpm ‐ql hadoop-‐0.20-‐conf-‐pseudo
格式化 NameNode
sudo ‐u hdfs hdfs namenode-‐format
$
for
service
in
/etc/init.d/hadoop*
>
do
>
sudo
$service
stop
>
done
启动 HDFS
启动 HDFS
$
for
service
in
/etc/init.d/hadoop-‐hdfs-‐*
>
do
>
sudo
$service
start
>
done
更改本地主机属性
5.更改 localhost 属性 http://localhost:50070 通过执行上述步骤,您可以启动您的 namenode 和 datanode 服务。