Я использовал следующую команду для автомасштабирования.Автомасштабирование занимает больше времени, чтобы поднять новый код и дать ошибку подключения в движке контейнера Google
kubectl autoscale deployment catch-node --cpu-percent=50 --min=1 --max=10
Состояние автомасштабирования в моем случае при испытании на нагрузку выглядит следующим образом.
27-й минуте
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 20% 1 10 27m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 1 1 1 1 27m
29-й минуте
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 35% 1 10 29m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 1 1 1 1 29m
31-й минуте
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 55% 1 10 31m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 1 1 1 1 31m
34-й минуте
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 190% 1 10 34m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 4 4 4 4 34m
Здесь я получаю сообщение об отказе от ошибки в промежутке между переходом 1 pod на 4pods при автомасштабировании. Пожалуйста, дайте мне знать, сколько времени потребуется, чтобы создать новые контейнеры, когда он превысит лимит ЦП%, заданный во время автомасштабирования. Также, пожалуйста, дайте мне знать, есть ли какой-либо метод, чтобы уменьшить это время .once все новые модули появляются, проблема заключается в том, не там . Заранее спасибо