我已经开始学习 Hadoop 并且刚刚完成了在hadoop 1.2.1 文档中演示的单个节点的设置 现在我想知道是否
- 当文件存储在这种类型的 FS 中时,我应该使用分层存储模式 - 就像我在 Windows 中那样使用文件夹和子文件夹,或者文件只要具有唯一名称就被写入?
- 如果有人在生产环境中使用它,是否可以将新节点添加到单节点设置中。或者仅仅通过简单地添加更多节点和编辑配置就可以将单个节点转换为集群而不会丢失数据?
- 这个我可以用谷歌搜索,但这是什么鬼!反正我要问,告我。我可以在 HDFS 中存储的最大文件数是多少?