0

我有一个 HDFS 集群,它有两个 NameNode。通常,如果使用 HDFS 客户端来保存数据,它会在其中一个出现故障时负责使用哪个 NameNode。

但是在 Spark 中,对于检查点,API 是:StreamingCONtext.checkpoint("hdfs://100.90.100.11:9000/sparkData")。

这里我只能指定一个NameNode,如果出现故障,Spark 没有智能切换到第二个。

有人能帮我一下吗?

有没有办法,如果我将此 XML 放在类路径中,Spark 可以理解“hdfs-site.xml”(其中包含两个名称节点的信息)。

4

1 回答 1

0

好的,我找到了答案。您可以使用以下语法添加 core-site.xml、hdfs-site.xml 等资源:

SparkContext.hadoopConfiguration().addResource(ABC.class.getClassLoader().getResource("core-site.xml")); SparkContext.hadoopConfiguration().addResource(ABC.class.getClassLoader().getResource("hdfs-site.xml"));

于 2018-03-26T15:47:16.890 回答