У меня есть два сервера CentOS 7, которые объединены в кластер с Corosync и Pacemaker для работы в режиме активный / пассивный. Вся идея заключалась в том, чтобы переместить точку монтирования в случае возникновения проблемы в активном узле. Мой клиент хотел усилить безопасность и после этого перезагрузил серверы. После перезагрузки мне не удалось снова запустить кластер.
Итак, я уничтожил кластер и захотел настроить все заново. Но ресурс файловой системы по какой-то причине не смог запуститься. Когда мы проверили наши журналы, мы увидели, что fusvg, то есть некоторая группа томов, не закрывается правильно
ошибка.
Я решил, что это проблема с разделом lvm. Логический том показывает "Не активен". Я попробовал команду lvchange -a y fusvg
, чтобы активировать ее, но не сработало.
Мой файл устройства логического тома отсутствует в / dev / fusvg / fuslv
, как показывает вывод lvdisplay
.
Вот вывод lvdisplay
:
[root@machine-name ~]# lvdisplay
--- Logical volume ---
LV Path /dev/fusvg/fuslv
LV Name fuslv
VG Name fusvg
LV UUID rL2svQ-kxnJ-GdD8-2aKX-Omcv-eywn-Q5rtRG
LV Write Access read/write
LV Creation host, time machine-name, 2018-06-22 13:34:13 +0300
LV Status NOT available
LV Size <30.00 TiB
Current LE 7864318
Segments 1
Allocation inherit
Read ahead sectors auto
Вот вывод vgdisplay
:
[root@machine name ~]# vgdisplay
--- Volume group ---
VG Name fusvg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 21
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size <30.00 TiB
PE Size 4.00 MiB
Total PE 7864318
Alloc PE / Size 7864318 / <30.00 TiB
Free PE / Size 0 / 0
VG UUID CMG3yi-qHSO-3qMP-CF1h-nG9Y-Uh34-KlWwiI
Вот вывод lsblk
:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 446.6G 0 disk
├─sda1 8:1 0 1G 0 part /boot
├─sda2 8:2 0 317.6G 0 part /
└─sda3 8:3 0 128G 0 part [SWAP]
sdb 8:16 0 30T 0 disk
└─36000d31003f63c000000000000000003 253:1 0 30T 0 mpath
└─36000d31003f63c000000000000000003p1 253:3 0 30T 0 part
sdc 8:32 0 5G 0 disk
└─36000d31003f63c000000000000000004 253:0 0 5G 0 mpath
sdd 8:48 0 30T 0 disk
└─36000d31003f63c000000000000000003 253:1 0 30T 0 mpath
└─36000d31003f63c000000000000000003p1 253:3 0 30T 0 part
sde 8:64 0 5G 0 disk
└─36000d31003f63c000000000000000004 253:0 0 5G 0 mpath
sdf 8:80 0 30T 0 disk
└─36000d31003f63c000000000000000003 253:1 0 30T 0 mpath
└─36000d31003f63c000000000000000003p1 253:3 0 30T 0 part
sdg 8:96 0 5G 0 disk
└─36000d31003f63c000000000000000004 253:0 0 5G 0 mpath
sdh 8:112 0 30T 0 disk
└─36000d31003f63c000000000000000003 253:1 0 30T 0 mpath
└─36000d31003f63c000000000000000003p1 253:3 0 30T 0 part
sdi 8:128 0 5G 0 disk
└─36000d31003f63c000000000000000004 253:0 0 5G 0 mpath
Сегодня столкнулся с этим при настройке Dell HA. Не уверен, связано ли это с их реализацией или стандартно везде, но База знаний SuSE «Получение ошибок при попытке активировать общую группу томов LVM» побудила меня добавить группу общих томов в volume_list
параметр в /etc/lvm/lvm.conf
. Как только это было сделано, я мог выполнить lvchange
и начать монтировать общую файловую систему.