1

我已经使用 windows 上的 hartonworks msi 在我的机器上配置了 hadoop。当我运行run-somketest.cmd我得到以下错误

java.net.ConnectException: Call to DEV144/192.168.137.1:8020 failed on connection exception: java.net.ConnectException: Connection refused: no further information
    at org.apache.hadoop.ipc.Client.wrapException(Client.java:1147)
    at org.apache.hadoop.ipc.Client.call(Client.java:1123)
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
    at $Proxy2.getProtocolVersion(Unknown Source)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
    at java.lang.reflect.Method.invoke(Method.java:597)
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85)
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:62)
    at $Proxy2.getProtocolVersion(Unknown Source)
    at org.apache.hadoop.ipc.RPC.checkVersion(RPC.java:422)
    at org.apache.hadoop.hdfs.DFSClient.createNamenode(DFSClie

实际上出了什么问题以及如何克服它

谢谢大家

4

1 回答 1

2

我认为您需要检查 core-site.xml 文件以检查fs.defaultFS属性。这用于指定默认文件系统并默认为本地文件系统,这就是为什么需要将其设置为 HDFS 地址的原因。这对于客户端配置也很重要,因此您的本地配置文件应包含此元素。

根据您的错误,我可以看到“DEV144/192.168.137.1:8020”。

fs.defaultFS - Hadoop FS 客户端在没有给出时使用的默认路径前缀

或者,您现在可以为 Hadoop 客户端配置默认路径以使用新的启用 HA 的逻辑 URI。如果您之前使用“mycluster”作为名称服务 ID,这将是所有 HDFS 路径的权限部分的值。这可以像这样在您的 core-site.xml 文件中进行配置:

<property><name>fs.defaultFS</name><value>hdfs://mycluster</value></property>

检查此属性的此链接详细信息

于 2013-11-06T22:32:52.957 回答