问问题
641 次
1 回答
2
所以我想出了一个解决方案,至少在安装后验证 HDFS 是否在您的 Mesos DC/OS 集群上运行。
dcos
使用CLI SSH 到您的主服务器:dcos node ssh --master-proxy --leader
- 创建一个安装了 hadoop 的 docker 容器来查询您的 HDFS:
docker run -ti cloudera/quickstart hadoop fs -ls hdfs://namenode-0.hdfs.mesos:9001/
为什么这不是一个好的解决方案以及需要注意的事项:
- 以前的文档都指向一个默认 URL
hdfs://hdfs/
,它会抛出一个java.net.UnknownHostException
. 我不喜欢直接指向名称节点。 - 其他文档建议您可以
hdfs fs ...
在 SSH 进入集群时运行命令 - 这不像文档中那样工作。 - 我用来测试你可以访问 HDFS 的图像 > 4GB(更好的选择?)
- 这些都没有记录(或者至少没有清楚/完整地记录下来,因此我为什么要更新这篇文章)。我不得不通过 DC/OS 闲聊来寻找答案。
- Mesosphere/HDFS 存储库与通过
dcos package install hdfs
. 该存储库不再维护,新版本尚未开源(因此我猜缺少当前文档)。
我希望有一种更简单的方式来与我仍然缺少的 HDFS 交互。任何更好的解决方案仍然会非常有帮助!
于 2016-08-10T19:53:27.400 回答