Как начать кластер с ведомыми устройствами, каждый из которых имеет накопитель на 100 ГБ.Spark: Как увеличить размер диска в ведомых устройствах
./spark-ec2 -k xx -i xx.pem -s 1 --hadoop-major-version=yarn --region=us-east-1 \
--zone=us-east-1b --spark-version=1.6.1 \
--vpc-id=vpc-xx --subnet-id=subnet-xx --ami=ami-yyyyyy \
launch cluster-test
Я использовал AMI, который имел размер 100GB; Тем не менее, Spark изменил его размер и запустил 8-гигабайтный диск. Как увеличить этот предел до 100 ГБ?