Я пытаюсь создать кластер HA OpenStack для узлов контроллера, следуя руководству OpenStack HA.
Поэтому у меня есть три узла в кластере:
Контроллер-0
Контроллер-1
Контроллер-2Невозможно запустить Corosync Cluster Engine
выставиться пароль для пользователя hacluster на каждом хосте.
[[email protected] ~]# yum install pacemaker pcs corosync libqb fence-agents-all resource-agents –y ;
идентифицированные во всех узлах с помощью пароля, который должен составлять кластер
[[email protected] ~]# pcs cluster auth controller-0 controller-1 controller-2 -u hacluster -p password --force
controller-2: Authorized
controller-1: Authorized
controller-0: Authorized
После этого созданного кластера:
[[email protected] ~]# pcs cluster setup --force --name ha-controller controller-0 controller-1 controller-2
Redirecting to /bin/systemctl stop pacemaker.service
Redirecting to /bin/systemctl stop corosync.service
Killing any remaining services...
Removing all cluster configuration files...
controller-0: Succeeded
controller-1: Succeeded
controller-2: Succeeded
Synchronizing pcsd certificates on nodes controller-0, controller-1 controller-2...
controller-2: Success
controller-1: Success
controller-0: Success
Restaring pcsd on the nodes in order to reload the certificates...
controller-2: Success
controller-1: Success
controller-0: Success
работы кластера:
[[email protected] ~]# pcs cluster start --all
controller-0:
controller-2:
controller-1:
Но когда Является терпкий corosync, я получаю:
[[email protected] ~]# systemctl start corosync
Job for corosync.service failed because the control process exited with error code.
See "systemctl status corosync.service" and "journalctl -xe" for details.
В журнале сообщений:
controller-0 systemd: Starting Corosync Cluster Engine...
controller-0 corosync[23538]: [MAIN ] Corosync Cluster Engine ('2.3.4'): started and ready to provide service.
controller-0 corosync[23538]: [MAIN ] Corosync built-in features: dbus systemd xmlconf snmp pie relro bindnow
controller-0 corosync[23539]: [TOTEM ] Initializing transport (UDP/IP Unicast).
controller-0 corosync[23539]: [TOTEM ] Initializing transmit/receive security (NSS) crypto: none hash: none
controller-0 corosync: Starting Corosync Cluster Engine (corosync): [FAILED]
controller-0 systemd: corosync.service: control process exited, code=exited status=1
controller-0 systemd: Failed to start Corosync Cluster Engine.
controller-0 systemd: Unit corosync.service entered failed state.
controller-0 systemd: corosync.service failed.
Мой corosync конфигурационный файл:
[[email protected] ~]# cat /etc/corosync/corosync.conf
totem {
version: 2
secauth: off
cluster_name: ha-controller
transport: udpu
}
nodelist {
node {
ring0_addr: controller-0
nodeid: 1
}
node {
ring0_addr: controller-1
nodeid: 2
}
node {
ring0_addr: controller-2
nodeid: 3
}
}
quorum {
provider: corosync_votequorum
expected_votes: 3
wait_for_all: 1
last_man_standing: 1
last_man_standing_window: 10000
}
logging {
to_logfile: yes
logfile: /var/log/cluster/corosync.log
to_syslog: yes
}
Кроме того, все имена разрешимы
OS является выпуск CentOS Linux 7.2.1511 (Core)
[[email protected] ~]# uname -a
Linux controller-0 3.10.0-327.13.1.el7.x86_64 #1 SMP Thu Mar 31 16:04:38 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux
Установленные версии:
pacemaker.x86_64 1.1.13-10.el7_2.2 @updates
pacemaker-cli.x86_64 1.1.13-10.el7_2.2 @updates
pacemaker-cluster-libs.x86_64 1.1.13-10.el7_2.2 @updates
pacemaker-libs.x86_64 1.1.13-10.el7_2.2 @updates
corosync.x86_64 2.3.4-7.el7_2.1 @updates
corosynclib.x86_64 2.3.4-7.el7_2.1 @updates
libqb.x86_64 0.17.1-2.el7.1 @updates
fence-agents-all.x86_64 4.0.11-27.el7_2.7 @updates
resource-agents.x86_64 3.9.5-54.el7_2.9 @updates