Кластер Red Hat: Отказ одного из двух сервисов, совместно использующих тот же виртуальный IP, разъединяет IP

Не помещайте обратную косую черту в конце %NEW_PATH%.

Если Вы получили случайный вход для начала вместо материала, Вы управляете, то можно выполнить одно из следующих действий:

  • Не учтите закрывающую кавычку. Это действительно работает в некоторых случаях:

    > setx foo "bar baz
    
    > echo %foo%
    bar baz
    

    Но не так успевает в других:

    > setx foo "Some stuff "with" embeddded quotes
    
    > echo %foo%
    Some stuff with embeddded quotes
    

    Однако у Вас есть та проблема уже для начала, поэтому что Вы сделали там было опасно в лучшем случае так как она уничтожит заключенные в кавычки пути (в котором Вы нуждаетесь, если Ваш путь включает точку с запятой).

    Который приводит нас к следующей опции:

  • Правильно выйдите из того, что входит в команду:

    set NEW_PATH=C:\I\Hate\User\Dirs\In\The\Root\
    rem Note the extra quotation marks; we're constructing the complete
    rem argument to setx here.
    set NEW_PATH_VAR="%PATH%;%NEW_PATH%"
    rem The great escape
    set NEW_PATH_VAR=%NEW_PATH_VAR:"=\"%
    setx PATH %NEW_PATH_VAR%
    

1
задан 21 November 2011 в 16:47
3 ответа

Я думаю, вам понадобится другая служба для поддержки этого IP. Проблема в том, что при сбое службы SAN rgmanager выдает ip-адрес del на узле, на котором запущена служба. Поскольку этот IP-адрес является общим, он выдернут из другой службы. Поэтому вам нужно добавить еще одну службу, например:

<service autostart="1" domain="<fo_domain_of_services>" name="floating_ip">
  <ip ref="your_ip" />
</service>

Способ настройки резервных доменов является ключевым, если вы сделаете это неправильно, вы получите IP, который будет находиться на одном узле, а службы - на другом. К сожалению, в настоящее время у меня нет кластера для тестирования, но я думаю, что вы хотите, чтобы все три службы (две, которым нужен IP-адрес и сам IP-адрес) в одном ограниченном домене переключения при отказе с приоритетом не менее 1.

Всегда помните, что если вы вносите изменения в / etc / cluster / cluster. conf вручную, чтобы увеличить номер версии, а затем используйте ccs_tool update /etc/cluster/cluster.conf, чтобы передать конфигурацию другим узлам. Также следует иметь в виду, что использование ccs_tool прекращается, но в RHEL 5.4 он все еще должен работать. Другая команда, которую следует запомнить, - это rg_test , она позволит вам точно увидеть, что делает кластер, когда вы запускаете / останавливаете службы. Увеличьте уровни отладки и всегда смотрите файлы журнала. Удачи!

Другая команда, которую следует запомнить, - это rg_test , она позволит вам точно увидеть, что делает кластер, когда вы запускаете / останавливаете службы. Увеличьте уровни отладки и всегда смотрите файлы журнала. Удачи!

Другая команда, которую следует запомнить, - это rg_test , она позволит вам точно увидеть, что делает кластер, когда вы запускаете / останавливаете службы. Увеличьте уровни отладки и всегда смотрите файлы журнала. Удачи!

1
ответ дан 4 December 2019 в 01:20

Вы пытались поместить две службы, которые зависят от диска, в их собственную группу ресурсов?

Похоже, что лучше всего было бы удалить IP-адрес и работающую службу при обнаружении сбоя, а затем переместить IP-адрес и обе службы другому члену кластера.

0
ответ дан 4 December 2019 в 01:20

Единственный способ выполнить эту работу - предоставить службам, не нуждающимся в диске, их собственные виртуальные IP-адреса.

cluster.conf теперь выглядит так:

<?xml version="1.0" ?>
<cluster config_version="1" name="cluster">
  <fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/>
  <cman shutdown_timeout="10000"/>
  <clusternodes>
    <clusternode name="node1" nodeid="1" votes="1">
      <fence>
        <method name="1">
          <device name="device1"/>
        </method>
      </fence>
    </clusternode>
    <clusternode name="node2" nodeid="2" votes="1">
      <fence>
        <method name="1">
          <device name="device2"/>
        </method>
      </fence>
    </clusternode>
    <clusternode name="node3" nodeid="3" votes="1">
      <fence>
        <method name="1">
          <device name="device3"/>
        </method>
      </fence>
    </clusternode>
  </clusternodes>
  <fencedevices>
      <fencedevice agent="fence_ilo" ipaddr="10.0.24.101" login="admin" name="device1" passwd="password"/>
      <fencedevice agent="fence_ilo" ipaddr="10.0.24.102" login="admin" name="device2" passwd="password"/>
      <fencedevice agent="fence_ilo" ipaddr="10.0.24.103" login="admin" name="device3" passwd="password"/>
  </fencedevices>
  <rm>
    <failoverdomains>
      <failoverdomain name="domain1" nofailback="0">
        <failoverdomainnode name="node1" priority="1"/>
      </failoverdomain>
      <failoverdomain name="domain2" nofailback="0">
        <failoverdomainnode name="node2" priority="1"/>
      </failoverdomain>
    </failoverdomains>
    <resources>
      <ip address="10.0.24.111" monitor_link="1"/>
      <ip address="10.0.24.112" monitor_link="1"/>
      <ip address="10.0.24.113" monitor_link="1"/>
      <ip address="10.0.24.114" monitor_link="1"/>
    </resources>
    <service autostart="1" exclusive="0" name="disk1" recovery="restart" domain="domain1">
      <ip ref="10.0.24.111"/>
      <script file="/etc/init.d/disk1" name="disk1"/>
      <fs device="/dev/VolGroup10/LogVol10" force_fsck="0" force_unmount="1" fstype="ext3" mountpoint="/mnt/lun1" name="lun1" self_fence="1"/>
      <lvm lv_name="LogVol10" name="VolGroup10/LogVol10" vg_name="VolGroup10"/>
    </service>
    <service autostart="1" exclusive="0" name="nodisk1" recovery="restart" domain="domain1">
      <ip ref="10.0.24.112"/>
      <script file="/etc/init.d/nodisk1" name="nodisk1"/>
    </service>
    <service autostart="1" exclusive="0" name="disk2" recovery="restart" domain="domain2">
      <ip ref="10.0.24.113"/>
      <script file="/etc/init.d/disk2" name="disk2"/>
      <fs device="/dev/VolGroup20/LogVol20" force_fsck="0" force_unmount="1" fstype="ext3" mountpoint="/mnt/lun2" name="lun2" self_fence="1"/>
      <lvm lv_name="LogVol20" name="VolGroup20/LogVol20" vg_name="VolGroup20"/>
    </service>
    <service autostart="1" exclusive="0" name="nodisk2" recovery="restart" domain="domain2">
      <ip ref="10.0.24.114"/>
      <script file="/etc/init.d/nodisk2" name="nodisk2"/>
    </service>
  </rm>
</cluster>
0
ответ дан 4 December 2019 в 01:20

Теги

Похожие вопросы