2016-11-30 8 views
2

Необходимо было изменить конфигурацию рабочего места саранчи, текущие рабочие - 130 узлов. Я экспортировал развертывание в виде файла yaml, отредактировал файл и применил изменения в работнике саранчи.Кубернетес + саранча (нагрузочное тестирование)

Рабочие были перезапущены и повторно инициализированы новыми конфигурациями. Все они работают с новой переменной среды, которую я ранее модифицировал.

Проблема заключается в том, что счетчик узлов был удвоен, соответственно рабочие перезагружены, а когда они встали, пользовательский интерфейс саранчи добавил его как новый узел, но не удалил неактивный.

Это текущая ситуация:

host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods -o wide|wc -l 
134 
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods|grep Running|wc -l 
133 
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # 

Dashboard:

STATUS 
HATCHING 
85 users 
Edit 
**SLAVES 
260** 
RPS 
0 
FAILURES 
0% 
 Reset Stats 
StatisticsFailuresExceptions 
Type Name # requests # fails Median Average Min Max Content Size # reqs/sec 
Total 0 0 0 0 0 0 0 0 
Download request statistics CSV 
Download response time distribution CSV 

Что бы быстро повторная инициализация мастера саранчи, чтобы получить реальное количество узлов?

Благодаря

+0

Единственным решением, которое я нашел до сих пор являюсь удаление стручка поэтому он будет воссоздан, который изменит IP стручок. Затем используйте kubectl edit deploy locust и отредактируйте IP-адрес ведущего узла, который будет повторно синхронизировать все подчиненные узлы – Maverik

ответ

0

единственным способом вы можете сбросить приборную панель главного узла сейчас является перепланированием мастера и начать с чистым стручком. Вы можете сделать это с помощью kubectl scale deployment/locust-master --replicas=0 и масштабировать их с помощью kubectl scale deployment/locust-master --replicas=1. Но это отбросит любые результаты, которые вы уже собрали на мастера.

Это скорее проблема саранчи, чем то, что k8s может решить imo.

0

Проблема, кажется, тот узел, когда он пытается зарегистрироваться и освоить, если не встал, не будет повторять попытку. Ни один из мастеров не выполняет постоянную связь, чтобы увидеть i

Удалить мастер-блок и подождать, пока он будет резервным. Теперь он будет иметь нулевые рабы.

Затем удалите узлы/рабочие контейнеры, чтобы они перерегистрировались. Чтобы удалить стручки с ярлыками, лейблами вы можете использовать следующую команду

# Delete pods and services with label name=myLabel. 
    kubectl delete pods,services -l name=myLabel