Как определить сбойный / удален жесткий диск в рейде mdadm?

Мой текущий mdstat:

$ cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid6 sde[8] sdh[4] sdg[1] sdd[6] sdb[5] sdc[7]
      9766914560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]

unused devices: <none>

Вот mdadm --detail:

$ sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Fri Apr 26 21:52:21 2013
     Raid Level : raid6
     Array Size : 9766914560 (9314.46 GiB 10001.32 GB)
  Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB)
   Raid Devices : 7
  Total Devices : 6
    Persistence : Superblock is persistent

    Update Time : Tue Mar 28 15:19:34 2017
          State : clean, degraded 
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : server:0  (local to host server)
           UUID : 7dfb32ef:8454e49b:ec03ac98:cdb2e691
         Events : 34230

    Number   Major   Minor   RaidDevice State
       8       8       64        0      active sync   /dev/sde
       1       8       96        1      active sync   /dev/sdg
       4       8      112        2      active sync   /dev/sdh
       5       8       16        3      active sync   /dev/sdb
       6       8       48        4      active sync   /dev/sdd
      10       0        0       10      removed
       7       8       32        6      active sync   /dev/sdc

Мои вопросы:

  1. Как я должен определить удаленный жесткий диск? Без уловок и догадок вроде вычитания набора дисков, показанного в выводе mdadm, из всех доступных жестких дисков в моей системе (ls / dev / sd *) и т.д ....
  2. Почему mdadm может удалить диск? Можно ли повторно добавить его, если я запускаю тесты smartctl и они успешно завершаются?

ОБНОВЛЕНИЕ Правильный ответ - sdf. Я нашел это, сравнив набор дисков, показанный в выводе mdadm, и все диски в системе (sda - это загрузочный диск с ОС), но я все равно нашел такую ​​процедуру слишком сложной.

2
задан 28 March 2017 в 22:46
2 ответа

Вы можете запустить mdadm --detail / dev / md0 , чтобы получить UUID массива RAID, в вашем случае это «7dfb32ef: 8454e49b: ec03ac98: cdb2e691».

Затем запустите mdadm --examine / dev / sda и проверьте, какому UID массива он принадлежит.Если это то же самое и sda отсутствует в выводе mdadm --detail / dev / md0 , то, скорее всего, этот диск был удален.

Я не могу ответить о причине ] mdadm , чтобы удалить диск, кроме этого вы сможете найти дополнительную информацию в dmesg и в / var / log .

Если эти места выглядят нормально , и SMART говорит, что с диском все в порядке, тогда его можно безопасно добавить снова.

Я бы рекомендовал вам настроить mdadm --monitor , чтобы он работал и контролировал ваш RAID устанавливает и отправляет вам электронное письмо, если что-то случится.

4
ответ дан 3 December 2019 в 09:32

Важна последовательность дисков в массиве рейдов. Вы можете увидеть это в выводе команды mdadm --detail / dev / md0 . В вашем примере это:

sde sdg sdh sdb sdd missed sdc

Если диск умер или отключен от сети, он по-прежнему принадлежит массиву raid. В вашем примере диск был удален из массива raid вручную с помощью команды mdadm. smartctl - хорошая программа для отображения состояния диска. Но эта программа не сможет вам помочь, если вы не знаете, какой диск находится в массиве.

1
ответ дан 3 December 2019 в 09:32

Теги

Похожие вопросы