Я использую jupyter для кластера, созданного с помощью google dataproc, и он работает очень хорошо.Управление google dataproc preemptible-workers постоянным размером диска
Я попытался сменить кластер «размер» (тип машины, размер загрузочного диска, количество рабочих, ...), чтобы соответствовать моим потребностям, и он работает очень хорошо.
Основная проблема заключается в том, что я не могу изменить размер постоянного диска для превентивных работников.
Я использую эту команду:
gcloud dataproc clusters create jupyter --project <my_project> --initialization-actions gs://dataproc-initialization-actions/jupyter/jupyter.sh --num-preemptible-workers 0 --master-boot-disk-size 25 --worker-boot-disk-size 10 --worker-machine-type n1-standard-1 --worker-boot-disk-size 10
Я надеялся, что вариант «--worker-boot-disk-size 10
» был бы применен также Preemptible те, но это не так.
Итак, есть ли способ изменить размер загрузочного диска превентивных работников?
Кроме того, будет ли Google взимать плату за использование постоянным диском с предохраняемым персоналом?
Спасибо, что принесли это. Можете ли вы поделиться своим прецедентом, когда по умолчанию 100 ГБ недостаточно? Если вы можете, любезно напишите [email protected] – tix
100 GB было больше, чем мне было нужно. Моя цель состояла в том, чтобы уменьшить размер диска, чтобы снизить затраты. –
Привет, теперь это исправлено. Вы можете указать --num-preemptible-workers при создании кластера без создания каких-либо превентивных виртуальных машин. См. Https://cloud.google.com/dataproc/docs/release-notes/service#september_16_2016 – tix