刚才我写了一个90M的文件到hdfs中,执行下面的命令fsck。输出如下。
xuhang@master:~$ hadoop fsck /home/xuhang/hadoopinput/0501/baidu_hadoop.flv -files -blocks -locations
/home/xuhang/hadoopinput/0501/baidu_hadoop.flv 103737775 字节,2 块............
0. blk_-7625024667897507616_12224 len=67108864 repl=2 [node1:50010, node2:50010]
1. blk_2225876293125688018_12224 len=36628911 repl=2 [node1:50010, node2:50010]
.................................. FSCK 在 2013 年 9 月 22 日星期日 11:55:51 CST 25 毫秒内结束
我已将 hdfs-site.xml 中的相同属性配置为两个数据节点,如下所示。
<name>dfs.name.dir</name>
<value>/home/xuhang/hadoop-1.2.1/name1,/home/xuhang/hadoop-1.2.1/name2</value>
但是我在两个数据节点中都找不到任何/home/xuhang/hadoop-1.2.1/name1
东西。/home/xuhang/hadoop-1.2.1/name2
为什么?我确定我已经成功地将90M的文件写入hdfs,因为我可以从hadoop命令或java客户端读取它。