对于我的 Hadoop 实验,我在我的 macbook 上的 localhost 上设置了单节点 HDFS。每次实验后,我都会关闭 hadoop 服务(./bin/stop-all.sh)。
几乎每次我再次启动我的设置(start-all.sh)时,我发现我的 HDFS 已损坏,我总是需要格式化我的名称节点并重新启动服务以再次访问 HDFS。
当我在启动后停止获取 namenode 管理员访问权限 (http://localhost:50070/) 时,我意识到了这一点。
在启动期间,我的名称节点日志显示“2012-11-29 15:27:43,160 错误 org.apache.hadoop.hdfs.server.namenode.FSNamesystem:FSNamesystem 初始化失败。org.apache.hadoop.hdfs.server.common.InconsistentFSStateException:目录 /private/tmp/hadoop-rupadhyay/dfs/name 处于不一致状态:存储目录不存在或不可访问。”
我不确定我在这里缺少什么。