我正在使用 Amazon EMR,并且能够正常运行大多数作业。当我开始在 EMR 集群中加载和生成更多数据时,我遇到了问题。集群存储空间不足。
每个数据节点都是一个 c1.medium 实例。根据此处和此处的链接,每个数据节点应带有 350GB 的实例存储。通过 ElasticMapReduce Slave 安全组,我能够在我的 AWS 控制台中验证 c1.medium 数据节点正在运行并且是实例存储。
当我在 namenode 上运行 hadoop dfsadmin -report 时,每个数据节点都有大约 10GB 的存储空间。通过运行 df -h 进一步验证了这一点
hadoop@domU-xx-xx-xx-xx-xx:~$ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 9.9G 2.6G 6.8G 28% /
tmpfs 859M 0 859M 0% /lib/init/rw
udev 10M 52K 10M 1% /dev
tmpfs 859M 4.0K 859M 1% /dev/shm
如何配置我的数据节点以使用完整的 350GB 存储启动?有没有办法使用引导操作来做到这一点?