使用托管在 172.16.53.31:8787 的 R-hadoop,我正在尝试将文件从 HDFS 导入到托管在 172.16.53.31:54331(最初为 54321)的 H2O。
发生了这个错误。任何想法?
或者有什么建议吗?
请和谢谢。
真挚地,
纽布
很难阅读粘贴到屏幕上的屏幕截图错误,但它看起来像 InvalidProtocolBufferException。
在这种情况下,“hdfs://172.16.53.31:”看起来格式不正确。
尝试没有端口的“hdfs://172.16.53.31”。或者尝试为您的 Hadoop 安装添加正确的端口。
如果你给出一个完全错误的端口,你指向的东西就不会说 protobuf。
当 Hadoop 客户端版本与 Hadoop 服务器版本相差太大时,也会发生此错误。(请注意,如果您使用“hadoop jar”方法启动 H2O,则正确的 Hadoop 库会通过“hadoop jar”放置在客户端类路径中。)
如果您使用“hadoop jar”启动 H2O,那么您通常会从环境中获取名称节点,并且可以只给出“hdfs:///path/to/file.csv”而不指定名称节点。
我确实有同样的问题。
尝试将 9000 端口号添加到您的 hdfs 路径。
像这样的东西:
hdfs://<ip>:9000/<dataPath>/