Ошибка монтирования RAID0: как восстановить / восстановить данные (диски не кажутся неисправными, проблема суперблока)

Сегодня утром, когда я пришел на работу, я обнаружил, что мой вычислительный сервер не отвечает: я провел на нем несколько вычислений в эти выходные, и сегодня утром он не хотел отвечать. Экраны оставались выключенными, и когда я пытался подключиться к моему компьютеру через ssh, он не отвечал.

Я сделал полный сброс на нем, и компьютер перезагрузился.

Когда я попытался получить доступ к моему массиву RAID0 (2disk) ), Я обнаружил, что автоматическое монтирование больше не работает.

Я попытался смонтировать его вручную, используя sudo mount -a

Сегодня утром, когда я пришел на работу, я обнаружил, что мой вычислительный сервер не отвечает: я провел на нем несколько вычислений в эти выходные, и сегодня утром он не хотел отвечать. Экраны оставались выключенными, и когда я пытался подключиться к моему компьютеру через ssh, он не отвечал.

Я сделал полный сброс на нем, и компьютер перезагрузился.

Когда я попытался получить доступ к моему массиву RAID0 (2disk) ), Я обнаружил, что автоматическое монтирование больше не работает.

Я попытался смонтировать его вручную, используя sudo mount -a

Сегодня утром, когда я пришел на работу, я обнаружил, что мой вычислительный сервер не отвечает: я провел на нем несколько вычислений в эти выходные, и сегодня утром он не хотел отвечать. Экраны оставались выключенными, и когда я пытался подключиться к моему компьютеру через ssh, он не отвечал.

Я сделал полный сброс на нем, и компьютер перезагрузился.

Когда я попытался получить доступ к моему массиву RAID0 (2disk) ), Я обнаружил, что автоматическое монтирование больше не работает.

Я попытался смонтировать его вручную, используя sudo mount -a затем:

mount: / DATA: Невозможно сделать суперблок на адресе / dev / md126. (не могу прочитать суперблок по адресу / dev / md1126)

Вот мой fstab. У меня есть диск nvme для системы и raid0 для данных: cat / etc / fstab

# / etc / fstab: информация о статической файловой системе.

# Используйте 'blkid', чтобы вывести универсальный уникальный идентификатор для устройства

#; это можно использовать с UUID = как более надежный способ присвоения имен устройствам

#, который работает, даже если диски добавляются и удаляются. См. Fstab (5).

#

# / был на / dev / nvme0n1p2 во время установки

UUID = 1488f5bf-f88d-48b5-a5a0-6c590d4583fd / ext4 errors = remount-ro 0 1

# swap был на / dev / nvme0n1p1 во время установки

UUID = 666f87e9-ce39-4af5-b812-33a9746561fb none swap sw 0 0

/ dev / disk / by-uuid / 7a0700a4-ec4c-4192-a074-ba3d DATA auto nosuid, nodev, nofail, x-gvfs-show 0 0

Я поискал в Интернете, как это исправить, и нашел несколько команд, которые могут предоставить некоторую информацию:

sudo fdisk -l

Disque / dev / loop0: 140 МБ, 146841600 октетов, 286800 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop1: 2,3 MiB, 2428928 октетов, 4744 секунды. secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop2: 139,5 МБ, 146276352 октета, 285696 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop3: 13 MiB, 13594624 октета, 26552 секунды. secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop4: 12,2 MiB, 12804096 октетов, 25008 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop5: 3,7 MiB, 3813376 октетов, 7448 секунд Модули: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop6: 21 MiB, 22003712 октетов, 42976 секунд. secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop7: 86,6 МБ, 90812416 октетов, 177368 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / nvme0n1: 477 ГиБ, 512110190592 октета, 1000215216 единиц защиты: защита 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / оптимальный): 512 октетов / 512 октетов Тип этикеток disque: dos Identifiant de disque: 0x7dd11723

Périphérique Amorçage Début Fin Secteurs Taille Id Type / dev / nvme0n1p1 2048 63999999 63997952 30,5 ГБ 82 изменение раздела Linux / Solaris / dev / nvme0n1p2 * 64000000 1000214843 936214844 446,4G 83 Linux

Диск / dev / sdb: 1,8 ТиБ, 2000398934016 октетов, 3907029168 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 4096 октетов taille d'E / S (минимальный / optimale): 4096 октетов / 4096 октетов

Диск / dev / sda: 1,8 ТиБ, 2000398934016 октетов, 3907029168 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 4096 октетов taille d'E / S (минимальный / optimale): 4096 октетов / 4096 октетов

Disque / dev / md126: 3,7 ТиБ, 4000792444928 октетов, 7814047744 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 4096 октетов taille d'E / S (минимальный / optimale): 16384 октета / 32768 октетов

Disque / dev / loop8: 21,6 МБ, 22609920 октетов, 44160 секунд. secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop9: 3,3 MiB, 3411968 октетов, 6664 секунды. secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop10: 86,6 МБ, 90828800 октетов, 177400 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop11: 1,6 МБ, 1691648 октетов, 3304 секунды. secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop12: 140 МБ, 146841600 октетов, 286800 секунд Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

Disque / dev / loop13: 86,6 МБ, 90759168 октетов, 177264 секунды Единицы: secteur de 1 × 512 = 512 октетов Taille de secteur (логика / телосложение): 512 октетов / 512 октетов taille d'E / S (минимальный / optimale): 512 октетов / 512 октетов

sudo mdadm --examine / dev / md126

mdadm: Суперблок md не обнаружен в /dev/md126.[12126 Sudo mdadm --examine / dev / sda

/ dev / sda: Magic: Intel Raid ISM Cfg Sig. Версия: 1.3.00 Семейство Orig: f9cade7c Семья: f9cade7c Поколение: 0000001f Атрибуты: Поддерживаются все UUID: 125118e9: 35e1a9ca: 35cfb5b8: 7184edc1 Контрольная сумма: 84a08e50 правильная Секторов MPB: 1 Диски: 2 Устройства RAID: 1

Disk00 Серийный номер: Z4Z38R88 Состояние: активно Id: 00000001 Полезный размер: 3907024136 (1863,01 ГиБ, 2000,40 ГБ)

[Том 1]: UUID: 9d14c84c: ee252990: 552570fe: 0a87621c Уровень RAID: 0 Участники: 2 Слоты: [UU] Неисправный диск: нет Этот слот: 0 Размер массива: 7814047744 (3726,03 ГиБ, 4000,79 ГБ) Размер для разработчиков: 3907024136 (1863,01 ГиБ, 2000,40 ГБ) Смещение сектора: 0 Кол-во полос: 122094496 Размер блока: 16 КБ Зарезервировано: 0 Состояние переноса: простаивает Состояние карты: нормальное Грязное состояние: чистый

Disk01 Серийный номер: Z4Z38SNS Состояние: активно Id: 00000002 Полезный размер: 3907024136 (1863,01 ГиБ, 2000,40 ГБ)

sudo mdadm --examine / dev / sdb

/ dev / sdb: Magic: Intel Raid ISM Cfg Sig. Версия: 1.3.00 Семейство Orig: f9cade7c Семья: f9cade7c Поколение: 0000001f Атрибуты: Поддерживаются все UUID: 125118e9: 35e1a9ca: 35cfb5b8: 7184edc1 Контрольная сумма: 84a08e50 правильная Секторов MPB: 1 Диски: 2 Устройства RAID: 1

Disk01 Серийный номер: Z4Z38SNS Состояние: активно Id: 00000002 Полезный размер: 3907024136 (1863,01 ГиБ, 2000,40 ГБ)

[Том 1]: UUID: 9d14c84c: ee252990: 552570fe: 0a87621c Уровень RAID: 0 Участники: 2 Слоты: [UU] Неисправный диск: нет Этот слот: 1 Размер массива: 7814047744 (3726,03 ГиБ, 4000,79 ГБ) Размер для разработчиков: 3907024136 (1863,01 ГиБ, 2000,40 ГБ) Смещение сектора: 0 Кол-во полос: 122094496 Размер блока: 16 КБ Зарезервировано: 0 Состояние переноса: простаивает Состояние карты: нормальное Грязное состояние: чистый

Disk00 Серийный номер: Z4Z38R88 Состояние: активно Id: 00000001 Полезный размер: 3907024136 (1863,01 ГиБ, 2000,40 ГБ)

Мой raid disk, sda и sdb вроде в порядке и не мертвы ... Проблема, кажется, исходит из суперблока md126

МОЙ ВОПРОС: как я могу восстановить / восстановить мой raid0 без потери данных? Не могли бы вы мне помочь?

(Кажется, мне придется использовать mdadm, но я не знаю как)

РЕДАКТИРОВАТЬ: подробнее cat / proc / mdstat

Личности: [raid0] [linear] [multipath] [raid1] [raid6] [raid5] [raid4] [raid10] md126: активный raid0 sda [1] sdb [0] 3907023872 блоки super external: / md127 / 0 16k chunks md127: неактивный sdb1 sda0 5032 блока super external: imsm неиспользуемые устройства:

0
задан 28 May 2018 в 15:02
1 ответ

Как вы уверены, что ваши диски в порядке? Вам нужно будет прочитать данные SMART, чтобы окончательно определить это, поскольку статуса "хорошо / плохо" недостаточно. Вы также можете получить подробную информацию о массиве в целом через mdadm --detail / dev / md126 , чтобы получить обзор.

Кроме того, это RAID0. Он не предназначен для того, чтобы допускать сбой устройства любого типа, даже небольшой локализованный, который не вызывает состояние работоспособности всего диска. Даже отключение диска из массива на короткое время может разрушить RAID0. Этот узел обычно связан с резервной копией или используется для данных, которые можно потерять сразу.

Необходимо перестроить массив и восстановить из резервной копии, или если вы не хотите использовать массив с меньшая целостность, чем один диск, рассмотрите другой уровень RAID. RAID 10 отлично работает с большинством шаблонов, может потерять два диска в массиве из четырех дисков, а диски дешевы.

Существуют файловые системы контрольных сумм и менеджеры томов, такие как btrfs и zfs, и они прилагают усилия для обеспечения целостности данных, а также для предотвращения сбоев устройств.

1
ответ дан 4 December 2019 в 15:57

Теги

Похожие вопросы