0

刚才我写了一个90M的文件到hdfs中,执行下面的命令fsck。输出如下。

xuhang@master:~$ hadoop fsck /home/xuhang/hadoopinput/0501/baidu_hadoop.flv -files -blocks -locations

/home/xuhang/hadoopinput/0501/baidu_hadoop.flv 103737775 字节,2 块............

0. blk_-7625024667897507616_12224 len=67108864 repl=2 [node1:50010, node2:50010]
1. blk_2225876293125688018_12224 len=36628911 repl=2 [node1:50010, node2:50010]

.................................. FSCK 在 2013 年 9 月 22 日星期日 11:55:51 CST 25 毫秒内结束

我已将 hdfs-site.xml 中的相同属性配置为两个数据节点,如下所示。

<name>dfs.name.dir</name>
<value>/home/xuhang/hadoop-1.2.1/name1,/home/xuhang/hadoop-1.2.1/name2</value>

但是我在两个数据节点中都找不到任何/home/xuhang/hadoop-1.2.1/name1东西。/home/xuhang/hadoop-1.2.1/name2为什么?我确定我已经成功地将90M的文件写入hdfs,因为我可以从hadoop命令或java客户端读取它。

4

1 回答 1

0

我看到这些块在主机 node1 和 node2 中。你一直在看node1和node2吗?请检查 node1 和 node2 中的hdfs-site.xml。很可能dfs.data.dir在这些节点中设置为不同的东西。您应该在名为current的目录中找到blk_文件,该目录位于.dfs.data.dir

于 2013-09-22T11:12:23.427 回答