У меня есть выделенный сервер с Raid I с / dev / sda
и / dev / sdb
в котором / dev / sda
начал давать сбой, поэтому я заказал его замену. После вмешательства сервер перешел в режим восстановления, и мне не предоставили никакой информации от службы поддержки, поэтому я пытался восстановить его.
Я понял, что хотя они заменили неисправный жесткий диск, они не потрудились скопируйте разделы из / dev / sdb
и добавьте новый жесткий диск в mdadm
. Итак, сделав это сам, я вижу на / proc / mdstat
, что сейчас идет восстановление.
root@rescue:/mnt/etc# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sda2[0] sdb2[1]
523200 blocks [2/2] [UU]
md3 : active raid1 sda3[0] sdb3[1]
20478912 blocks [2/2] [UU]
md4 : active raid1 sdb4[1] sda4[2]
3884961728 blocks [2/1] [_U]
[====>................] recovery = 22.4% (872776320/3884961728) finish=254.3min speed=197355K/sec
bitmap: 1/29 pages [4KB], 65536KB chunk
unused devices: <none>
Я искал в своих резервных копиях соответствующий корневой раздел на fstab:
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/md3 / ext4 errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0 0 1
/dev/md2 /boot ext4 errors=remount-ro 0 1
/dev/md4 /home ext4 defaults,usrquota 1 2
/dev/sda5 swap swap defaults 0 0
/dev/sdb5 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
/dev/sda1 /boot/efi vfat defaults 0 0
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts defaults 0 0
/usr/tmpDSK /tmp ext3 defaults,noauto 0 0
И я убедился, что это не был поврежден после установки из режима восстановления.
Затем я попробовал загрузку по сети, указав / dev / md3 в качестве корневого раздела. Однако, когда я пытаюсь это сделать, сервер немедленно переходит в аварийный режим, объясняя, что есть некоторые проблемы с / dev / sda (я думаю, потому что он все еще перестраивается).
FAT-fs (sda1): bogus number of reserved sectors
FAT-fs (sda1): Can't find a valid FAT filesystem
Я не могу передать запрос на вход, так как мой пароль root кажется нераспознанным, поэтому я действительно не знаю, что показывают результаты journalctl -xb, но я полагаю, что контрольная сумма для этого жесткого диска не складывается .
Вопрос в том, есть ли способ перезапустить сервер с использованием рейда, но с установлением приоритета / dev / sdb во время восстановления RAID? Я знаю, что каждая перезагрузка заставляет процесс восстановления mdadm возвращаться. до 0%, поэтому теперь я пытаюсь быть полностью уверенным, что если я попробую что-то еще, это сработает.
/dev/sda1 /boot/efi vfat defaults 0 0
Ваш UEFI ESP не находится на дисковом массиве. Это нужно для загрузки, но на самом деле это не может быть массив.
Восстановите работающую файловую систему. Восстановите его из резервной копии или переустановите. Согласно руководство системного администратора выглядит следующим образом:
yum reinstall grub2-efi shim
(Теоретически вы можете повторно синхронизировать диск efi с mdadm. Проблема в том, что отдельные элементы могут обновляться прошивкой EFI вне массива, так что это очень уродливо и хаки.)