2016-08-30 10 views
0

У меня есть кластер с открывающимся доступом с двумя узлами (ведущий и подчиненный), я хочу изменить файл конфигурации моего HAproxy-маршрутизатора, поэтому я решил сделать configmap , После того как я следовать этой Tuto: https://docs.openshift.org/latest/install_config/install/deploy_router.htmlconfigMap не может создать конфигурационный файл haproxy в исходном начале pod

создаётся ConfigMap, но гондола не хочет, чтобы перезагрузить, я получил эту ошибку:

I0830 12:35:37.112924 1 router.go:161] Router is including routes in all >namespaces E0830 12:35:37.372029 1 ratelimiter.go:50] error reloading router: exit >status 1 [ALERT] 242/123537 (28) : [/usr/sbin/haproxy.main()] No enabled listener found >(check the keywords) ! Exiting.

После того, как я deleate на «livenessProb» и «readenesProb» в rc Я могу получить доступ к моему маршрутизатору, но configfile пуст. Когда я сделать «findmnt -o + РАСПРОСТРАНЕНИЯ» в стручках я получил это:

TARGET       SOURCE    FSTYPE OPTIONS  PROPAGATION 
/        /dev/mapper/docker-253:0-202065893-  4b0b4dede29e355551067e03212ee75cd293545839a9e5014525b8fc8453e5e4[/rootfs] 
                xfs rw,relat private 
|-/proc       proc     proc rw,nosui private 
| |-/proc/bus     proc[/bus]   proc ro,nosui private 
| |-/proc/fs      proc[/fs]   proc ro,nosui private 
| |-/proc/irq     proc[/irq]   proc ro,nosui private 
| |-/proc/sys     proc[/sys]   proc ro,nosui private 
| |-/proc/sysrq-trigger   proc[/sysrq-trigger] proc ro,nosui private 
| |-/proc/kcore     tmpfs[/null]   tmpfs rw,nosui private 
| `-/proc/timer_stats   tmpfs[/null]   tmpfs rw,nosui private 
|-/dev       tmpfs    tmpfs rw,nosui private 
| |-/dev/pts      devpts    devpts rw,nosui private 
| |-/dev/mqueue     mqueue    mqueue rw,nosui private 
| |-/dev/termination-log   /dev/mapper/centos- root[/var/lib/origin/openshift.local.volumes/pods/3deedc57-6eae-11e6-8091- 020000a17bb0/containers/router/58cbfd4d] 
                 xfs rw,relat private,slave 
| `-/dev/shm      shm     tmpfs rw,nosui private 
|-/sys       sysfs    sysfs ro,nosui private 
| `-/sys/fs/cgroup    tmpfs    tmpfs ro,nosui private 
| |-/sys/fs/cgroup/systemd  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/cpuacct,cpu cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                 cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/cpuset  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                 cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/net_cls  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/memory  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/blkio  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/perf_event cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/devices  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
| |-/sys/fs/cgroup/freezer  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
| `-/sys/fs/cgroup/hugetlb  cgroup[/system.slice/docker-297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c.scope] 
                cgroup ro,nosui private,slave 
|-/run/secrets     /dev/mapper/centos- root[/var/lib/docker/containers/297a37b2903e3a3bcd64d74a4e0c8e71d90cf240377bbc4b778e73ebda53af0c/secrets] 
                xfs rw,relat private,slave 
| `-/run/secrets/kubernetes.io/serviceaccount 
          tmpfs    tmpfs ro,relat private,slave 
|-/etc/hosts      /dev/mapper/centos-root[/var/lib/docker/containers/56f5ea1e5e2fb9392b9cb3cfc6eecc43d42eb23f9769793e6b2e4f7250c7cf5c/hosts] 
                xfs rw,relat private 
|-/etc/resolv.conf    /dev/mapper/centos-root[/var/lib/docker/containers/56f5ea1e5e2fb9392b9cb3cfc6eecc43d42eb23f9769793e6b2e4f7250c7cf5c/resolv.conf] 
                xfs rw,relat private 
|-/etc/hostname     /dev/mapper/centos-root[/var/lib/docker/containers/56f5ea1e5e2fb9392b9cb3cfc6eecc43d42eb23f9769793e6b2e4f7250c7cf5c/hostname] 
                xfs rw,relat private 
`-/var/lib/haproxy/conf/custom tmpfs    tmpfs rw,relat private,slave 

Любая помощь? Спасибо

+0

Возможно расположение вы установили карту конфигурации в не правильно. Дважды проверьте, что это местоположение, на которое указывает аргумент haproxy --conf (в определении контейнера). – Clayton

ответ