是否可以告诉 HDFS在哪里存储特定文件?
用例
我刚刚将第 1 批文件加载到 HDFS 中,并希望在这些数据上运行作业/应用程序。但是,我还有一批 #2仍然要加载。如果我可以在第一批运行作业/应用程序,例如从 1 到 10 的节点,并将新数据加载到节点,例如,11 到 20,完全并行,那就太好了。
最初我认为NameNode 联合(Hadoop 2.x)正是这样做的,但看起来联合只拆分命名空间,而 DataNode 仍然为所有连接的 NameNode 提供块。
那么,有没有办法控制HDFS中的数据分布呢?这有意义吗?