如何使用每个都有100GB驱动器的从属服务器启动集群。
./spark-ec2 -k xx -i xx.pem -s 1 --hadoop-major-version=yarn --region=us-east-1 \
--zone=us-east-1b --spark-version=1.6.1 \
--vpc-id=vpc-xx --subnet-id=subnet-xx --ami=ami-yyyyyy \
launch cluster-test
我使用了大小为100GB的AMI;然而,Spark调整了大小并启动了8GB驱动器。如何将该限制增加到100GB?