如何使用每个具有 100GB 驱动器的从属服务器启动集群。
./spark-ec2 -k xx -i xx.pem -s 1 --hadoop-major-version=yarn --region=us-east-1 \
--zone=us-east-1b --spark-version=1.6.1 \
--vpc-id=vpc-xx --subnet-id=subnet-xx --ami=ami-yyyyyy \
launch cluster-test
我使用了一个大小为 100GB 的 AMI;然而,Spark 调整了它的大小并启动了一个 8GB 的驱动器。如何将该限制增加到 100GB?