RHCS: GFS2 в кластере A/A с общим устройством хранения данных. Конфигурирование GFS с rgmanager

Проверка аппаратных средств была бы хорошей ставкой, если у Вас есть доступ к нему. Вы могли осмотреть компоненты системы и/или аппаратные компоненты для получения хорошей идеи того, когда она была собрана.

Поочередно, если можно получить доступ к экрану BIOS часто существует информация о дате там, которая может использоваться для определения, какого возраста машина.

Если можно получить доступ к УМНОЙ информации о жестком диске (smartctl -a /dev/sda) могло бы быть что-то там для продолжения. Я не вижу определенной метки времени в УМНОМ, но существует, по крайней мере, час счетчика использования. Это обеспечило бы нижнюю границу на том, какого возраста машина (так как, если жесткий диск работал в течение 100 часов, система не может быть моложе, чем 100 часов).

Что касается проверок файловой системы, Вы могли посмотреть на информацию о дате для /lost+found - тот каталог был создан, когда файловая система была создана. Дата на нем должна согласиться с tunefs информацией из предыдущего ответа.

5
задан 15 December 2012 в 18:20
1 ответ

Я немного поработал с кластерами. Это мое мнение по этому поводу.

could have simply added force_unmount="1",  but I would like to know what is
the reason behind the default behavior. Why is it not unmounted? 

Если вы решите настроить gfs как кластерный ресурс и добавить диск clvmd и gfs в качестве ресурсов, то при отработке отказа с помощью rgmanager он будет попытаться размонтировать диск, поэтому в вашем случае я сначала проверю журналы (или lsof / fuser ) и т. д.), чтобы указать, почему размонтирование могло быть неудачным. Вероятно, есть процесс, открывающий файл или что-то в этом роде, предотвращающий "чистое" размонтирование.

Может быть, потому, что вы этого не сделали. Не используете rgmanager для запуска кластерного приложения? Я не вижу этого в вашем cluster.conf. Если это правда, то это объяснит поведение.

Если вы выберете force_unmount , то, что будет делать rgmanager при отказе / восстановлении, будет принудительно уничтожить любое обращение, использующее диск, перед размонтированием диска. Хорошая идея или нет, зависит от погоды.

clvm is stopped, but GFS is not unmounted, so a node cannot alter LVM structure 
on shared storage anymore, but can still access data. And even though a node can 
do it quite safely (dlm is still running), [...]  
Moreover if I later try to stop cman on that node, it will find a dlm locking,
produced by GFS, and fail to stop.

Если вы хотите изменить структуру LVM в этом сценарии, вы можете снова запустить демон clvmd вручную. Если вы размонтируете диск gfs перед остановкой cman, это должно сработать. С другой стороны, в производственном сценарии я редко оказываюсь в ситуации, когда я бы хотел остановить CMAN на кластерном узле.

Я предпочитаю выбрать вариант 4.

If I understand the latest approach correctly, such cluster only controls 
whether nodes are still alive and can fence errant ones, but such cluster
has no control over the status of its resources.

Это правда, что если вы не добавляйте ресурсы gfs2 и clvmd в качестве ресурса кластера, Что я обычно делаю при настройке кластеров upp A / A (в зависимости от случая, конечно), так это то, что я добавляю сценарий запуска для моей службы в качестве кластерного ресурса . (Затем rgmanager будет вызывать сценарий с аргументом status на регулярной основе, чтобы определить, в какой погоде ему необходимо выполнить настроенное действие). Поскольку мой сценарий зависит от файловой системы gfs, он завершится ошибкой, если он не смонтирован.

Подход 4 подразумевает включение вручную clvmd , cman и gfs2 ] (и, возможно, другие демоны тоже в зависимости от ситуации).

Так как файловая система GFS находится поверх устройства iSCSI, для ее работы необходимо добавить параметр _netdev к монтированию в / etc / fstab .

  • Это способ не получить слишком сложной конфигурации кластера, и не будет предпринимать никаких действий, если, например, файловая система gfs каким-то образом выйдет из строя / размонтируется
  • , если файловая система gfs смонтирована много, может вызвать ненужную нагрузку на устройство, например, updatedb и другие задания, которые могут потребоваться для обхода файловой системы, тем самым вызывая задержку диска (блокировку трафика)

Независимо от того, что вы решите

, я бы добавил сценарий инициализации в качестве кластерного ресурса, и если вы решите добавить gfs и clvm в кластер в качестве ресурсов, я бы подумал о добавлении к нему атрибута __ independent_subtree , поэтому в случае сбоя rgmanager не будет повторно монтировать файловую систему gfs. Это, конечно, зависит от вашей конкретной ситуации. Обратите внимание на вложенную конфигурацию в ссылке, обозначающую своего рода дерево зависимостей.

тем самым вызывая задержку диска (блокировку трафика)

Независимо от того, что вы решите

, я бы добавил сценарий инициализации в качестве кластерного ресурса, и, если вы решили добавить gfs и clvm ] в кластер в качестве ресурсов, я бы подумал о добавлении к нему атрибута __ independent_subtree , поэтому в случае сбоя rgmanager не будет повторно монтировать файловую систему gfs. Это, конечно, зависит от вашей конкретной ситуации. Обратите внимание на вложенную конфигурацию в ссылке, обозначающую своего рода дерево зависимостей.

тем самым вызывая задержку диска (блокировку трафика)

Независимо от того, что вы решите

, я бы добавил сценарий инициализации в качестве кластерного ресурса, и, если вы решили добавить gfs и clvm ] в кластер в качестве ресурсов, я бы подумал о добавлении к нему атрибута __ independent_subtree , поэтому в случае сбоя rgmanager не будет повторно монтировать файловую систему gfs. Это, конечно, зависит от вашей конкретной ситуации. Обратите внимание на вложенную конфигурацию в ссылке, обозначающую своего рода дерево зависимостей.

t перемонтировать файловую систему gfs. Это, конечно, зависит от вашей конкретной ситуации. Обратите внимание на вложенную конфигурацию в ссылке, обозначающую своего рода дерево зависимостей.

t перемонтировать файловую систему gfs. Это, конечно, зависит от вашей конкретной ситуации. Обратите внимание на вложенную конфигурацию в ссылке, обозначающую своего рода дерево зависимостей.

1
ответ дан 3 December 2019 в 02:04

Теги

Похожие вопросы