2017-01-09 5 views
0

Я создал экземпляр Minikube на своей локальной машине поверх Virtual Box. У меня есть несколько контроллеров репликации с ограничениями ресурсов, указанными для обоих из них. Сначала я создал один экземпляр для каждого контроллера репликации A и B. Затем я увеличил количество репликации rc B до 6. Как только он будет масштабироваться, я вижу, что Pod, созданный rc A, убит Кубернетом. Только журнал я могу увидеть в журналах kubeclt являетсяПоиск причины, по которой куки были убиты Minikube

/opt/app-server/bin/app-server.sh: line 159: 28 Killed     $JAVA_HOME/bin/java -server $JVM_OPTS $XDEBUG $SERVER_OPTS -Djava.endorsed.dirs=$SERVER_ENDORSED -classpath $SERVER_CLASSPATH org.adroitlogic.appserver.AppServer 

Я не имею ни малейшего понятия, что послужило причиной для выселения этого стручка. Я предполагаю, что это связано с распределением ресурсов контейнеров и ограниченными ресурсами на виртуальной машине. Но мне нужно это подтвердить. Где я могу найти журналы, связанные с причиной выселения этого контейнера? Я искал в journalctl -u localkube

Jan 09 11:00:55 minikube localkube[3421]: I0109 11:00:55.136114 3421 docker_manager.go:2524] checking backoff for container "ipsweb" in pod "ipsweb-m3234" 
Jan 09 11:00:55 minikube localkube[3421]: I0109 11:00:55.136525 3421 docker_manager.go:2538] Back-off 5m0s restarting failed container=ipsweb pod=ipsweb-m3234_default(e6961157-d650-11e6-8bee-080027bc9720) 
Jan 09 11:00:55 minikube localkube[3421]: E0109 11:00:55.136571 3421 pod_workers.go:184] Error syncing pod e6961157-d650-11e6-8bee-080027bc9720, skipping: failed to "StartContainer" for "ipsweb" with CrashLoopBackOff: "Back-off 5m0s restarting failed container=ipsweb pod=ipsweb-m3234_default(e6961157-d650-11e6-8bee-080027bc9720)" 

kubectl описывают стручок дает следующие события

Events: 
    FirstSeen LastSeen Count From   SubobjectPath  Type  Reason  Message 
    --------- -------- ----- ----   -------------  -------- ------  ------- 
    1h  1h  1 {kubelet minikube} spec.containers{ipsweb} Normal  Started  Started container with docker id 2ca5ccaa11a1 
    1h  1h  1 {kubelet minikube} spec.containers{ipsweb} Normal  Created  Created container with docker id 2ca5ccaa11a1; Security:[seccomp=unconfined] 
    1h  1h  1 {kubelet minikube} spec.containers{ipsweb} Normal  Started  Started container with docker id 86d4bdfa014e 
    1h  1h  1 {kubelet minikube} spec.containers{ipsweb} Normal  Created  Created container with docker id 86d4bdfa014e; Security:[seccomp=unconfined] 
    50m  50m  1 {kubelet minikube} spec.containers{ipsweb} Normal  Started  Started container with docker id a570e4f59e96 
    50m  50m  1 {kubelet minikube} spec.containers{ipsweb} Normal  Created  Created container with docker id a570e4f59e96; Security:[seccomp=unconfined] 
    1h  49m  2 {kubelet minikube}    Warning  FailedSync Error syncing pod, skipping: failed to "StartContainer" for "ipsweb" with CrashLoopBackOff: "Back-off 10s restarting failed container=ipsweb pod=ipsweb-m3234_default(e6961157-d650-11e6-8bee-080027bc9720)" 

    49m 49m 1 {kubelet minikube} spec.containers{ipsweb} Normal Started  Started container with docker id b91cc20a8bb3 
    49m 49m 1 {kubelet minikube} spec.containers{ipsweb} Normal Created  Created container with docker id b91cc20a8bb3; Security:[seccomp=unconfined] 
    1h 48m 4 {kubelet minikube}    Warning FailedSync Error syncing pod, skipping: failed to "StartContainer" for "ipsweb" with CrashLoopBackOff: "Back-off 20s restarting failed container=ipsweb pod=ipsweb-m3234_default(e6961157-d650-11e6-8bee-080027bc9720)" 

    48m 48m 1 {kubelet minikube} spec.containers{ipsweb} Normal Started  Started container with docker id cf24faa31718 
    48m 48m 1 {kubelet minikube} spec.containers{ipsweb} Normal Created  Created container with docker id cf24faa31718; Security:[seccomp=unconfined] 
    1h 46m 7 {kubelet minikube}    Warning FailedSync Error syncing pod, skipping: failed to "StartContainer" for "ipsweb" with CrashLoopBackOff: "Back-off 40s restarting failed container=ipsweb pod=ipsweb-m3234_default(e6961157-d650-11e6-8bee-080027bc9720)" 

Но не вышеперечисленное дает мне подсказку о причинах и почему это происходит. Любое предложение?

ответ

1

Так что я не знаю, как правильно это сделать, но вот что я делаю, когда k8s не могут дать мне достаточно информации.

Проще всего сделать это, чтобы увидеть docker logs этого контейнера. Я вижу, что некоторые стручки снова и снова терпят неудачу. Так что я бы Гото minikube машину и запустить

docker ps -a | grep 'some_identifiable_name'

это где я получаю идентификатор контейнера. Как только у меня есть, я получаю журналы этого контейнера.

docker logs <id_found_above>

Это должно быть сделано так быстро, потому что K8S может собирать мусор в контейнер, прежде чем вы даже можете выполнить все шаги.

0

Чтобы получить журналы каждого стручка в простой форме, запустите следующую команду,

$ minikube dashboard

затем kubernetes панель откроется в вашем браузере. затем перейдите Pods, под вкладкой контейнеров появится опция View logs, откуда вы можете реально увидеть, что происходит внутри контейнера или почему оно не работает