我已经重新启动了 HDFS 名称节点和数据节点。ClusterID 发生了变化,所以我正确配置了,但是 storageID 和 datanodeUuid 我不知道在哪里可以找到正确的配置来检测 DFS 的文件。我检查df -h
并且有文件:
ikerlan@172:/opt/hadoop/sbin$ df -h
Filesystem Size Used Avail Use% Mounted on
udev 5,8G 4,0K 5,8G 1% /dev
tmpfs 1,2G 964K 1,2G 1% /run
/dev/vda1 977G 289G 639G 32% /
none 4,0K 0 4,0K 0% /sys/fs/cgroup
none 5,0M 0 5,0M 0% /run/lock
none 5,8G 1,3M 5,8G 1% /run/shm
none 100M 36K 100M 1% /run/user
但是从 HDFS 网站我看不到任何文件。