2

我正在尝试使用教程在 ubuntu 上安装 hadoop

我已经更改了所有的 conf 文件并尝试了 Internet 上可用的所有解决方案。我运行时没有收到任何错误,start-all.sh但是当我使用 jps 检查进程时,我得到了这个:->

3132 Jps
2742 SecondaryNameNode
2830 JobTracker

当我使用时stop-all.sh,我得到:->

stopping jobtracker
localhost: no tasktracker to stop
no namenode to stop
localhost: no datanode to stop
localhost: stopping secondarynamenode

这是我的 jobtracker 日志

Problem connecting to HDFS Namenode... re-trying
java.net.ConnectException: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused
    at org.apache.hadoop.ipc.Client.wrapException(Client.java:1142)
    at org.apache.hadoop.ipc.Client.call(Client.java:1118)
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
    at com.sun.proxy.$Proxy7.getProtocolVersion(Unknown Source)
    at sun.reflect.GeneratedMethodAccessor2.invoke(Unknown Source)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85)
4

5 回答 5

0

检查您的 core-site.xml 文件以查看您是否已更新 hdfstmp 文件夹的路径。如果您已从 Internet 复制并粘贴配置并且未能配置路径,您将收到此错误。尝试这样的事情:

<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/user/hdfstmp</value>
</property>

这里的 hdfstmp 是默认文件系统的文件夹名称。

在 core-site.xml 文件中正确设置临时目录后,我建议

  • 再次检查所有配置文件
  • bin/stop-all.sh
  • hadoop/bin namenode -format
  • bin/start-all.sh
于 2013-10-04T11:34:53.530 回答
0

您必须是包含 namenode 和 datanode 的目录的所有者。

于 2014-07-21T06:56:11.517 回答
0

请检查为 fs.defaultFS 属性配置的端口。就我而言,我已经给出了已经在使用的端口。因此namenode没有启动。更改端口后,我可以启动名称节点

于 2015-03-18T06:57:36.780 回答
0

Hadoop 2+不存在 Tasktracker ,您应该使用它而不是关注使用 Hadoop 1 的博客。

正如 jps 命令所示,没有活动的 datanode 或 namenode 进程在运行,所以其余的输出是有意义的

当我运行 start-all.sh 时不会出现任何错误

该脚本隐藏了启动错误。您需要查看实际的 namenode 和 datanode 日志文件,看看它们为什么没有启动

于 2022-02-07T07:17:03.407 回答
0

1) 使用“kill -9 processid”
2) start-all.sh
3) stop-al.sh 验证停止节点是否按预期工作。

于 2015-09-18T07:27:42.657 回答