Невозможно активировать логический том, которым управлял Pacemaker

У меня есть два сервера CentOS 7, которые объединены в кластер с Corosync и Pacemaker для работы в режиме активный / пассивный. Вся идея заключалась в том, чтобы переместить точку монтирования в случае возникновения проблемы в активном узле. Мой клиент хотел усилить безопасность и после этого перезагрузил серверы. После перезагрузки мне не удалось снова запустить кластер.

Итак, я уничтожил кластер и захотел настроить все заново. Но ресурс файловой системы по какой-то причине не смог запуститься. Когда мы проверили наши журналы, мы увидели, что fusvg, то есть некоторая группа томов, не закрывается правильно ошибка.

Я решил, что это проблема с разделом lvm. Логический том показывает "Не активен". Я попробовал команду lvchange -a y fusvg , чтобы активировать ее, но не сработало.

Мой файл устройства логического тома отсутствует в / dev / fusvg / fuslv , как показывает вывод lvdisplay .

Вот вывод lvdisplay :

[root@machine-name ~]# lvdisplay 
  --- Logical volume ---
  LV Path                /dev/fusvg/fuslv
  LV Name                fuslv
  VG Name                fusvg
  LV UUID                rL2svQ-kxnJ-GdD8-2aKX-Omcv-eywn-Q5rtRG
  LV Write Access        read/write
  LV Creation host, time machine-name, 2018-06-22 13:34:13 +0300
  LV Status              NOT available
  LV Size                <30.00 TiB
  Current LE             7864318
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
   

Вот вывод vgdisplay :

[root@machine name ~]# vgdisplay 
  --- Volume group ---
  VG Name               fusvg
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  21
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               <30.00 TiB
  PE Size               4.00 MiB
  Total PE              7864318
  Alloc PE / Size       7864318 / <30.00 TiB
  Free  PE / Size       0 / 0   
  VG UUID               CMG3yi-qHSO-3qMP-CF1h-nG9Y-Uh34-KlWwiI

Вот вывод lsblk :

NAME                                    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                                       8:0    0 446.6G  0 disk  
├─sda1                                    8:1    0     1G  0 part  /boot
├─sda2                                    8:2    0 317.6G  0 part  /
└─sda3                                    8:3    0   128G  0 part  [SWAP]
sdb                                       8:16   0    30T  0 disk  
└─36000d31003f63c000000000000000003     253:1    0    30T  0 mpath 
  └─36000d31003f63c000000000000000003p1 253:3    0    30T  0 part  
sdc                                       8:32   0     5G  0 disk  
└─36000d31003f63c000000000000000004     253:0    0     5G  0 mpath 
sdd                                       8:48   0    30T  0 disk  
└─36000d31003f63c000000000000000003     253:1    0    30T  0 mpath 
  └─36000d31003f63c000000000000000003p1 253:3    0    30T  0 part  
sde                                       8:64   0     5G  0 disk  
└─36000d31003f63c000000000000000004     253:0    0     5G  0 mpath 
sdf                                       8:80   0    30T  0 disk  
└─36000d31003f63c000000000000000003     253:1    0    30T  0 mpath 
  └─36000d31003f63c000000000000000003p1 253:3    0    30T  0 part  
sdg                                       8:96   0     5G  0 disk  
└─36000d31003f63c000000000000000004     253:0    0     5G  0 mpath 
sdh                                       8:112  0    30T  0 disk  
└─36000d31003f63c000000000000000003     253:1    0    30T  0 mpath 
  └─36000d31003f63c000000000000000003p1 253:3    0    30T  0 part  
sdi                                       8:128  0     5G  0 disk  
└─36000d31003f63c000000000000000004     253:0    0     5G  0 mpath  
1
задан 25 September 2020 в 18:30
1 ответ

Сегодня столкнулся с этим при настройке Dell HA. Не уверен, связано ли это с их реализацией или стандартно везде, но База знаний SuSE «Получение ошибок при попытке активировать общую группу томов LVM» побудила меня добавить группу общих томов в volume_list параметр в /etc/lvm/lvm.conf. Как только это было сделано, я мог выполнить lvchange и начать монтировать общую файловую систему.

0
ответ дан 25 January 2021 в 16:02

Теги

Похожие вопросы