У меня здесь странная проблема. Я установил Corosync и Pacemaker, я использовал это руководство в качестве справочника, но я немного импровизировал при первой установке, так как я Я делаю это, чтобы учиться, а не следуя инструкциям, как раб. Но когда у меня возникла эта странная ошибка, я загрузил новый VPS, чтобы повторить попытку, на этот раз следуя инструкциям, как подчиненный.
Вот руководство, которому я следовал, довольно неплохо настроенное Митчеллом Аникасом из Digital Ocean: Как создать настройку HAProxy высокой доступности с Corosync, Pacemaker и плавающими IP-адресами в Ubuntu 14.04 | digitalocean.com
Ошибки, которые я получаю, связаны с количеством узлов в кластере. В своих настройках я явно указал делать кластер из двух узлов.
ОС: Ubuntu Xenial Xursus (16.04.4)
totem {
version: 2
cluster_name: lbcluster
transport: udpu
interface {
ringnumber: 0
bindnetaddr: primary's-privateIP
broadcast: yes
mcastport: 5405
}
}
quorum {
provider: corosync_votequorum
two_node: 1
}
nodelist {
node {
ring0_addr: primary's-privateIP
name: primary
nodeid: 1
}
node {
ring0_addr: secondary's-privateIP
name: secondary
nodeid: 2
}
}
logging {
to_logfile: yes
logfile: /var/log/corosync/corosync.log
to_syslog: yes
timestamp: on
}
Если я запустил sudo crm status
, результат будет выглядеть следующим образом.
Last updated: Fri Apr 13 15:31:47 2018 Last change: Fri Apr 13 14:08:42 2018 by root via cibadmin on secondary<br>
Stack: corosync<br>
Current DC: secondary (version 1.1.14-70404b0) - partition with quorum<br>
3 nodes and 0 resources configured
Online: [ primary secondary ]
OFFLINE: [ sh-ps-02 ]
Я также запустил sudo crm configure show
, чтобы показать конфигурацию:
node 1: primary<br>
node 2: secondary<br>
node 2130706433: sh-ps-02<br>
property cib-bootstrap-options: \<br>
have-watchdog=false \<br>
dc-version=1.1.14-70404b0 \<br>
cluster-infrastructure=corosync \<br>
cluster-name=debian \<br>
stonith-enabled=false \<br>
no-quorum-policy=ignore
Почему там странный узел,
I ran sudo corosync-cmapctl | grep members
to get the members of the cluster, and there is no traces of that weird cluster member that is offline.
runtime.totem.pg.mrp.srp.members.1.config_version (u64) = 0
runtime.totem.pg.mrp.srp.members.1.ip (str) = r(0) ip(x.x.82.204)
runtime.totem.pg.mrp.srp.members.1.join_count (u32) = 3
runtime.totem.pg.mrp.srp.members.1.status (str) = joined
runtime.totem.pg.mrp.srp.members.2.config_version (u64) = 0
runtime.totem.pg.mrp.srp.members.2.ip (str) = r(0) ip(x.x.82.167)
runtime.totem.pg.mrp.srp.members.2.join_count (u32) = 1
runtime.totem.pg.mrp.srp.members.2.status (str) = joined
Я полагаю, что Xenial поставляет Corosync и Pacemaker, запущенные и включенные в systemd, с конфигурацией corosync.conf
, которая создаст «кластер с одним узлом». Эта запись, вероятно, является именем хоста одного из ваших узлов, который был добавлен до того, как вы установили имена: первичный
и вторичный
.
Чтобы очистить его, просто удалите эту запись :
# crm node delete sh-ps-02
Примечание:присвоение имен вашим узлам первичным
и вторичным
не является хорошей практикой. узел-a
и узел-b
были бы лучше, поскольку любой узел в кластере должен иметь возможность действовать как «первичный» или «вторичный».