Странный номер узла в настройке балансировщика нагрузки

У меня здесь странная проблема. Я установил Corosync и Pacemaker, я использовал это руководство в качестве справочника, но я немного импровизировал при первой установке, так как я Я делаю это, чтобы учиться, а не следуя инструкциям, как раб. Но когда у меня возникла эта странная ошибка, я загрузил новый VPS, чтобы повторить попытку, на этот раз следуя инструкциям, как подчиненный.

Вот руководство, которому я следовал, довольно неплохо настроенное Митчеллом Аникасом из Digital Ocean: Как создать настройку HAProxy высокой доступности с Corosync, Pacemaker и плавающими IP-адресами в Ubuntu 14.04 | digitalocean.com

Ошибки, которые я получаю, связаны с количеством узлов в кластере. В своих настройках я явно указал делать кластер из двух узлов.

ОС: Ubuntu Xenial Xursus (16.04.4)

totem {
  version: 2
  cluster_name: lbcluster
  transport: udpu
  interface {
    ringnumber: 0
    bindnetaddr: primary's-privateIP
    broadcast: yes
    mcastport: 5405
  }
}

quorum {
  provider: corosync_votequorum
  two_node: 1
}

nodelist {
  node {
    ring0_addr: primary's-privateIP
    name: primary
    nodeid: 1
  }
  node {
    ring0_addr: secondary's-privateIP
    name: secondary
    nodeid: 2
  }
}

logging {
  to_logfile: yes
  logfile: /var/log/corosync/corosync.log
  to_syslog: yes
  timestamp: on
}

Если я запустил sudo crm status , результат будет выглядеть следующим образом.

Last updated: Fri Apr 13 15:31:47 2018          Last change: Fri Apr 13 14:08:42 2018 by root via cibadmin on secondary<br>
Stack: corosync<br>
Current DC: secondary (version 1.1.14-70404b0) - partition with quorum<br>
3 nodes and 0 resources configured

Online: [ primary secondary ]
OFFLINE: [ sh-ps-02 ]

Я также запустил sudo crm configure show , чтобы показать конфигурацию:

node 1: primary<br>
node 2: secondary<br>
node 2130706433: sh-ps-02<br>
property cib-bootstrap-options: \<br>
have-watchdog=false \<br>
dc-version=1.1.14-70404b0 \<br>
cluster-infrastructure=corosync \<br>
cluster-name=debian \<br>
stonith-enabled=false \<br>
no-quorum-policy=ignore

Почему там странный узел, I ran sudo corosync-cmapctl | grep members to get the members of the cluster, and there is no traces of that weird cluster member that is offline.

runtime.totem.pg.mrp.srp.members.1.config_version (u64) = 0
runtime.totem.pg.mrp.srp.members.1.ip (str) = r(0) ip(x.x.82.204)
runtime.totem.pg.mrp.srp.members.1.join_count (u32) = 3
runtime.totem.pg.mrp.srp.members.1.status (str) = joined
runtime.totem.pg.mrp.srp.members.2.config_version (u64) = 0
runtime.totem.pg.mrp.srp.members.2.ip (str) = r(0) ip(x.x.82.167)
runtime.totem.pg.mrp.srp.members.2.join_count (u32) = 1
runtime.totem.pg.mrp.srp.members.2.status (str) = joined
1
задан 16 April 2018 в 23:03
1 ответ

Я полагаю, что Xenial поставляет Corosync и Pacemaker, запущенные и включенные в systemd, с конфигурацией corosync.conf , которая создаст «кластер с одним узлом». Эта запись, вероятно, является именем хоста одного из ваших узлов, который был добавлен до того, как вы установили имена: первичный и вторичный .

Чтобы очистить его, просто удалите эту запись :

# crm node delete sh-ps-02

Примечание:присвоение имен вашим узлам первичным и вторичным не является хорошей практикой. узел-a и узел-b были бы лучше, поскольку любой узел в кластере должен иметь возможность действовать как «первичный» или «вторичный».

0
ответ дан 4 December 2019 в 04:03

Теги

Похожие вопросы