Это - мое текущее настроенное подтверждение концепции
node ha1
node ha2
primitive HA-mysql lsb:mysql \
op monitor interval="15s"
primitive VIP ocf:heartbeat:IPaddr2 \
params ip="10.100.0.10" nic="eth1" \
op monitor interval="10s"
group HA-Group VIP HA-mysql \
meta resource-stickiness="101"
location PREFER-NODE1 HA-Group 100: ha1
property $id="cib-bootstrap-options" \
dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
stonith-enabled="false" \
no-quorum-policy="ignore"
Если я читаю документацию правильно, устанавливая значение неподвижности, которое достаточно высоко, должен предотвратить проблему, где обслуживание ресурса вернулось к основному узлу, когда это восстанавливается с отказа. Достаточно высоко, в этом случае я должен установить значение неподвижности для Группы HA, которая является, по крайней мере,
100 < $stickiness-of-group + $stickiness-of-VIP + $stickiness-of-HA-mysql
100 < $stickiness + 0 + 0
100 < $stickiness
таким образом, я использую 101.
Желаемое поведение, которое я ищу:
Однако с текущей конфигурацией, когда я повторно включаю ha1, группа ресурсов сразу подана ha1, после того как это обнаруживается как.
Другое сообщение в блоге я отношусь за неподвижностью: http://foaa.de/old-blog/2010/10/intro-to-pacemaker-part-2-advanced-topics/trackback/index.html#stickiness-vs-location-where-is-the-node-and-where-will-it-stay
P/S: Я использовал намного более высокое значение для неподвижности группы, как 200, 500, 1000, но все еще получаю то же поведение.
PP/S: моя версия кардиостимулятора
ii pacemaker 1.0.9.1+hg15626-1 HA cluster resource manager
работа debian сжимает
Linux ha1 2.6.32-5-amd64 #1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU/Linux
Distributor ID: Debian
Description: Debian GNU/Linux 6.0.6 (squeeze)
Release: 6.0.6
Codename: squeeze
PPP/S: даже если я уменьшу конфигурацию до этого, то неподвижность все еще не будет работать
node ha1
node ha2
primitive VIP ocf:heartbeat:IPaddr2 \
params ip="10.100.0.10" nic="eth1" \
op monitor interval="10s" \
meta resource-stickiness="1"
property $id="cib-bootstrap-options" \
dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
stonith-enabled="false" \
no-quorum-policy="ignore"
Почти сам нашел ответ после долгой борьбы. По-видимому, отключение от сети - это плохая симуляция, даже если установлена липкость. Для того, чтобы добиться того, что настройка липкости намеревается решить, сервер должен быть полностью мертв, или, по крайней мере, служба corosync должна быть выключена.