импорт шпульки на объеме на 50 ТБ берет навсегда: Что это делает?

Одна вещь, которую я делаю, это немного неэффективно, но у меня есть прогон задания крона каждую минуту, который использует завихрение для сохранения вывода http://localhost/server-status в файл с датой и временем как имя файла. Тем путем я могу потянуть те файлы в веб-браузере и видеть, к каким URL получали доступ в тот момент. Сравнение многих этих шоу, какие сценарии используют большинство ресурсов. Но это не очень точно, это - просто быстрый и грязный способ видеть то, что продолжается.

Для точного представления используйте профилировщика, как другие предположили.

Сообщите мне, требуется ли видеть задание крона.

6
задан 17 December 2010 в 23:32
2 ответа

С ZFS Вы действительно хотите позволить ему управлять дисками непосредственно, поскольку это улучшает параллелизм. Единственный диск на 50 ТБ, который Вы дали ему, является точкой дросселирования.

Это сценарий DTrace только отслеживает syscalls. Реальное действие происходит в ядре и если Вы хотите видеть то, что использует большую часть ЦП, используйте 'hotkernel' сценарий от Инструментария DTrace.

При импорте пула ZFS читает конфигурацию из диска и проверяет его. После того, как пул импортируется, он начнет монтировать все те файловые системы 1000-х и снимки, которые Вы создали. Это может требовать времени. Если бы у Вас был включенный dedup (который Вы не делаете, так как Вы использовали snv_111), то потребовалось бы еще больше времени, так как он должен загрузить dedup таблицу (DDT).

Закрытие системы никогда не является хорошим вариантом, особенно на OpenSolaris snv_111. Вы не отправили свою конфигурацию пула (состояние шпульки), но, если у Вас будут устройства сильного удара, и они перестали работать, то Вы не сможете импортировать пул (это было недавно обращено в Солярисе 11 Экспрессов snv_151a).

Мой совет состоит в том, что Вы экспортируете каждый из этих 32 дисков индивидуально и создаете несколько raidz2 vdev's, таким образом, у Вас есть больше комбинированных головок. Не создавайте огромный vdev's с> 8 дисков, потому что производительность будет плачевна.

Если Вы не можете позволить себе иметь систему вниз так долго (большинство людей не делает), изучите снимки ZFS тщательно и как копировать их в удаленный сервер с zfs, отправляют/получают. Это позволит Вам быстро поднимать отказоустойчивый сервер.

5
ответ дан 3 December 2019 в 00:26

'импорт zfs' более или менее просто читает назад конфигурацию Вашего vdevs (от 'zpool.cache') непосредственно. Я предполагаю то, что брало навсегда здесь для окончания, был Ваш удалять транзакцию.

Учитывая, что ZFS является транзакционным, и что Вы удалили 1 000 файловых систем, каждого с 24 снимками, у Вас было очень интенсивное, удаляют с необходимым для проверки ссылочных указателей на 24 000 снимков. Учитывая время поиска тех голов SATA и все древовидные обновления, которые должны были быть сделаны.

2
ответ дан 3 December 2019 в 00:26

Теги

Похожие вопросы