我在 ubuntu 16.10 上有 Hadoop
一切正常:我能够在 HDFS 中上传输入文件并执行 map-reduce 操作。但是当我重新启动我的电脑时,所有 HDFS 块都损坏了,NameNode 以安全模式启动
所以我必须要
1) 离开安全模式
2)删除所有损坏的块
hdfs fsck -delete
3)重新上传输入文件
然后它工作正常,直到下次重新启动。
有人可以帮我解决这个问题。谢谢
我解决了我的问题。我使用此链接检查我的配置文件 http://www.bogotobogo.com/Hadoop/BigData_hadoop_Install_on_ubuntu_single_node_cluster.php
我忘了sudo chown -R hduser:hadoop /usr/local/hadoop_tmp
在我的 hdfs 目录上使用
Create folder like /dfs/ in your machine
open hdfs-site.xml or hdfs-default.xml
set this property "dfs.namenode.name.dir".
Example:
<property>
<name>dfs.namenode.name.dir</name>
<value>/dfs/</value>
<description>Determines where on the local filesystem the DFS name node
should store the name table(fsimage). If this is a comma-delimited list
of directories then the name table is replicated in all of the
directories, for redundancy. </description>
</property>