如何将我的 hadoop DFS 的配置容量从默认的 50GB 增加到 100GB?
我目前的设置是在使用 120GB 和 450GB 的 centOS6 机器上运行的 hadoop 1.2.1。已使用“Hadoop the Definitive Guide 3'rd 建议的 /conf 将 hadoop 设置为伪分布式模式。hdfs-site.xml 只有一个配置属性:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
以下行没有给出错误反馈...返回提示。
hadoop dfsadmin -setSpaceQuota 100g /tmp/hadoop-myUserID
如果我处于再生循环中(已执行
rm -rf /tmp/hadoop-myUserId
试图“从头开始”) setSpaceQuota 的这种看似成功的情况仅在我已执行时才会发生
start-all.sh
hadoop namenode -format
我的 dfs 容量配置失败显示为
hadoop dfsadmin -report
这显示了相同的 50GB 配置容量。
如果这是目前获得 100GB hdfs 配置容量的最佳方式,我愿意切换到 hadoop 2.2(现在是稳定版本)。似乎应该有 hdfs-site.xml 的配置属性,这将允许我使用更多的空闲分区。