Необходимо было изменить конфигурацию рабочего места саранчи, текущие рабочие - 130 узлов. Я экспортировал развертывание в виде файла yaml, отредактировал файл и применил изменения в работнике саранчи.Кубернетес + саранча (нагрузочное тестирование)
Рабочие были перезапущены и повторно инициализированы новыми конфигурациями. Все они работают с новой переменной среды, которую я ранее модифицировал.
Проблема заключается в том, что счетчик узлов был удвоен, соответственно рабочие перезагружены, а когда они встали, пользовательский интерфейс саранчи добавил его как новый узел, но не удалил неактивный.
Это текущая ситуация:
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods -o wide|wc -l
134
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods|grep Running|wc -l
133
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config #
Dashboard:
STATUS
HATCHING
85 users
Edit
**SLAVES
260**
RPS
0
FAILURES
0%
 Reset Stats
StatisticsFailuresExceptions
Type Name # requests # fails Median Average Min Max Content Size # reqs/sec
Total 0 0 0 0 0 0 0 0
Download request statistics CSV
Download response time distribution CSV
Что бы быстро повторная инициализация мастера саранчи, чтобы получить реальное количество узлов?
Благодаря
Единственным решением, которое я нашел до сих пор являюсь удаление стручка поэтому он будет воссоздан, который изменит IP стручок. Затем используйте kubectl edit deploy locust и отредактируйте IP-адрес ведущего узла, который будет повторно синхронизировать все подчиненные узлы – Maverik