我们以这种方式设置的 Hadoop 集群上的空间不足:
- 1x 1TB 硬盘 / <- Ubuntu 系统分区
- 3x 1.5TB 硬盘 /data1 /data2 /data3 <- HDFS 数据卷
系统分区几乎没有使用(97% 空闲),不会用于与 hadoop 无关的任务。
将系统分区作为 HDFS 数据目录添加到 DataNode 配置是否安全?
恐怕 Hadoop 会填满分区,使系统无法使用。
最好的方法可能是设置单独的 lvm 卷或重新分区磁盘。但我会避免走这条路。
hadoop 是否尊重 unix 配额?例如,如果我从系统分区添加一个目录并通过配额限制 hadoop 用户仅使用例如 0.5TB 会有帮助吗?