2

刚开始使用Pentaho的HDFS VFS,对这个项目了解不多。我正在尝试从外部位置读取我的 Hadoop 配置文件。这似乎适用于除hdfs-site.xml之外的所有文件。尝试通过 Pentaho HDFS VFS 项目与 HDFS 通信时,VFS 层出现故障。我的直觉告诉我 pentaho 正在通过一些环境变量或其他外部指针读取这个文件,但我似乎无法在他们的源代码中找到它。当我手动将 hdfs-site.xml 文件放入已编译的war文件中时,一切正常,但这对我来说还不够,因为我需要将此文件放在外部位置,以便其他进程可以更改它。

以前有人处理过这个问题吗?有人可以让我知道如何告诉 pentaho 从哪里获取这个文件吗?

谢谢

4

2 回答 2

0

您可以提供更多信息吗?你说的是 pentaho 分发的 VFS api 吗?

于 2015-05-12T01:20:59.253 回答
0

所以我想出了一种让 pentaho hdfs 工作的方法,你需要做的就是将 hdfs-site.xml 添加到你的类路径中。我在启动 jar 文件时这样做了:

java -jar start.jar --lib=/etc/hadoop/conf.cloudera.yarn1

而 /etc/hadoop/conf.cloudera.yarn1 是 hdfs-site.xml 所在的目录。

于 2015-05-27T01:47:53.770 回答