我有一个 HDFS 集群,它有两个 NameNode。通常,如果使用 HDFS 客户端来保存数据,它会在其中一个出现故障时负责使用哪个 NameNode。
但是在 Spark 中,对于检查点,API 是:StreamingCONtext.checkpoint("hdfs://100.90.100.11:9000/sparkData")。
这里我只能指定一个NameNode,如果出现故障,Spark 没有智能切换到第二个。
有人能帮我一下吗?
有没有办法,如果我将此 XML 放在类路径中,Spark 可以理解“hdfs-site.xml”(其中包含两个名称节点的信息)。