Можно ли перезагрузить сервер из / dev / sdb, пока RAID 1 восстанавливает / dev / sda?

У меня есть выделенный сервер с Raid I с / dev / sda и / dev / sdb в котором / dev / sda начал давать сбой, поэтому я заказал его замену. После вмешательства сервер перешел в режим восстановления, и мне не предоставили никакой информации от службы поддержки, поэтому я пытался восстановить его.

Я понял, что хотя они заменили неисправный жесткий диск, они не потрудились скопируйте разделы из / dev / sdb и добавьте новый жесткий диск в mdadm . Итак, сделав это сам, я вижу на / proc / mdstat , что сейчас идет восстановление.

root@rescue:/mnt/etc# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] 
md2 : active raid1 sda2[0] sdb2[1]
      523200 blocks [2/2] [UU]

md3 : active raid1 sda3[0] sdb3[1]
      20478912 blocks [2/2] [UU]

md4 : active raid1 sdb4[1] sda4[2]
      3884961728 blocks [2/1] [_U]
      [====>................]  recovery = 22.4% (872776320/3884961728) finish=254.3min speed=197355K/sec
      bitmap: 1/29 pages [4KB], 65536KB chunk

unused devices: <none>

Я искал в своих резервных копиях соответствующий корневой раздел на fstab:

# <file system> <mount point> <type>  <options> <dump>  <pass>
/dev/md3  / ext4  errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0  0 1
/dev/md2  /boot ext4  errors=remount-ro 0 1
/dev/md4  /home ext4  defaults,usrquota 1 2
/dev/sda5 swap  swap  defaults  0 0
/dev/sdb5 swap  swap  defaults  0 0
proc    /proc proc  defaults    0 0
sysfs   /sys  sysfs defaults    0 0
/dev/sda1 /boot/efi vfat  defaults  0 0
tmpfs   /dev/shm  tmpfs defaults  0 0
devpts    /dev/pts  devpts  defaults  0 0
/usr/tmpDSK             /tmp                    ext3    defaults,noauto        0 0

И я убедился, что это не был поврежден после установки из режима восстановления.

Затем я попробовал загрузку по сети, указав / dev / md3 в качестве корневого раздела. Однако, когда я пытаюсь это сделать, сервер немедленно переходит в аварийный режим, объясняя, что есть некоторые проблемы с / dev / sda (я думаю, потому что он все еще перестраивается).

FAT-fs (sda1): bogus number of reserved sectors
FAT-fs (sda1): Can't find a valid FAT filesystem

Я не могу передать запрос на вход, так как мой пароль root кажется нераспознанным, поэтому я действительно не знаю, что показывают результаты journalctl -xb, но я полагаю, что контрольная сумма для этого жесткого диска не складывается .

Вопрос в том, есть ли способ перезапустить сервер с использованием рейда, но с установлением приоритета / dev / sdb во время восстановления RAID? Я знаю, что каждая перезагрузка заставляет процесс восстановления mdadm возвращаться. до 0%, поэтому теперь я пытаюсь быть полностью уверенным, что если я попробую что-то еще, это сработает.

0
задан 8 July 2019 в 13:10
1 ответ
/dev/sda1 /boot/efi vfat  defaults  0 0

Ваш UEFI ESP не находится на дисковом массиве. Это нужно для загрузки, но на самом деле это не может быть массив.

Восстановите работающую файловую систему. Восстановите его из резервной копии или переустановите. Согласно руководство системного администратора выглядит следующим образом:

yum reinstall grub2-efi shim

(Теоретически вы можете повторно синхронизировать диск efi с mdadm. Проблема в том, что отдельные элементы могут обновляться прошивкой EFI вне массива, так что это очень уродливо и хаки.)

2
ответ дан 4 December 2019 в 13:19

Теги

Похожие вопросы