0

使用托管在 172.16.53.31:8787 的 R-hadoop,我正在尝试将文件从 HDFS 导入到托管在 172.16.53.31:54331(最初为 54321)的 H2O。

发生了这个错误。任何想法?

错误

或者有什么建议吗?

请和谢谢。

真挚地,

纽布

4

2 回答 2

2

很难阅读粘贴到屏幕上的屏幕截图错误,但它看起来像 InvalidProtocolBufferException。

在这种情况下,“hdfs://172.16.53.31:”看起来格式不正确。

尝试没有端口的“hdfs://172.16.53.31”。或者尝试为您的 Hadoop 安装添加正确的端口。

如果你给出一个完全错误的端口,你指向的东西就不会说 protobuf。

当 Hadoop 客户端版本与 Hadoop 服务器版本相差太大时,也会发生此错误。(请注意,如果您使用“hadoop jar”方法启动 H2O,则正确的 Hadoop 库会通过“hadoop jar”放置在客户端类路径中。)

如果您使用“hadoop jar”启动 H2O,那么您通常会从环境中获取名称节点,并且可以只给出“hdfs:///path/to/file.csv”而不指定名称节点。

于 2015-03-30T03:06:36.380 回答
1

我确实有同样的问题。

尝试将 9000 端口号添加到您的 hdfs 路径。

像这样的东西:

hdfs://<ip>:9000/<dataPath>/
于 2015-02-06T14:45:20.047 回答