Участники пула ZFS запускают перезаписанные секторы, включая маркировки L0 L1 и таблицу разделов. Данные и неповрежденные маркировки L2 L3. Как восстановиться?

Имейте два идентичных диска на 2 ТБ в зеркальном пуле ZFS. К сожалению, перезаписанный запуск дисков с errorneus пытаются присоединить их через RAID-контроллер HP Smartarray P400 как отдельные логические тома RAID0 кто записанные свои собственные метаданные там.

Таблица разделов (если был кто-либо созданный шпулькой, создают - видит ниже), и L0, маркировки L1 потеряны. L1, маркировки L2 и данные неповреждены, как замечено в шестнадцатеричном числе.

шпулька первоначально была создана путем простого добавления неструктурированных устройств для зеркального отражения пула как это - шпулька создает/dev/sda зеркала корпуса/dev/sdb.

Там какой-либо путь состоит в том, чтобы восстановиться?

1
задан 5 January 2015 в 12:00
2 ответа

Да, вы сделали ваши диски непригодными для использования ...

Может быть, есть какая-то магия ZDB, которая может помочь, но создание логических дисков HP RAID 0 - это довольно осознанное действие. Было бы четкое предупреждение, что данные, содержащиеся на дисках, будут потеряны из-за метаданных Smart Array.

Как правило, использование нескольких логических дисков RAID 0 для ZFS - плохая идея для аппаратного RAID-контроллера. Но это была серьезная ошибка.


Редактировать:

Я рекомендую задать этот вопрос в списке рассылки ZFS-обсуждения или на канале IRC.

1
ответ дан 3 December 2019 в 21:07

Наконец, я обнаружил, что мой пул ZFS не поврежден. Старый сервер импортирует / экспортирует пул без каких-либо проблем. Единственная разница заключалась в версии ядра ZFS и версиях модулей:

Старое: ядро ​​3.13.0-39-generic, SPL: v0.6.3-1 ~ trusty, ZFS: v0.6.3-3 ~ trusty

Новое: ядро 3.13.0-43-generic, SPL: v0.6.3-3 ~ trusty, ZFS: v0.6.3-5 ~ trusty

И, начиная с блока 2048, срезы zfs создавались в отдельных разделах. Итак, RAID-контроллер не влияет на метки L0, L1, просто обнуляет таблицы разделов.

Единственное, что я сделал для импорта, - восстановил таблицы разделов (zpool import по-прежнему показывает пул как FAULTY) и сделал / dev / disk / myzfs dir и сделал символические ссылки на устройства разделов участников zpool, аналогичные тем, которые имеют / dev / disk / by-id (попытка "zpool import -d / dev / disk / by-id" показывает пул как FAULTY).

«zpool import -d / dev / disk / myzfs» показывает мой пул как ONLINE, а «zpool import -d / dev / disk / myzfs nas» выполнены успешно.

К сожалению,Мне не удалось воспроизвести комбинацию ядра-SPL-ZFS и модулей, как на старом сервере - не нашел, как получить старые пакеты ppa: zfs-native / stable. Итак, я не мог сказать, были ли это изменения версии модуля или что-то еще.

1
ответ дан 3 December 2019 в 21:07

Теги

Похожие вопросы