Инициируйте ZFS dedup одноразовый scan/rededup

Это - основанный на IPv6 доступ к WSUS, который Вы видите там.

Временно отключите вход так, чтобы Вы не заполняли диск снова:

  • Вскочите в менеджера по IIS
  • Найдите веб-сайт WSUS (это будет то, слушающее на порте 8530),
  • Поднимите Регистрирующиеся свойства для корня сайта
  • Нажмите "Disable" в области "Actions".

Это будет мешать журналам расти.

Я не могу сказать, что видел, что WSUS-связанный трафик создает журналы, настолько большие прежде. 4.4 МБ за день не неслыханны, но 1.67 ГБ за день означает, что что-то пошло не так, как надо.

Вчерашний файл журнала собирается сказать Вам партии о том, что происходило. Мне трудно полагать, что это был весь трафик WSUS. Интересно, не начинало ли что-то еще барабанить в сервер. Получите тот больший файл журнала от машины и взгляните на него.

Ваш журнал похож, это находится в расширенном формате W3C. Формат того файла журнала, кажется:

Дата, Время, исходный IP-адрес, метод Запроса HTTP, основа URI, вероятно, запрос URI, порт сервера, имя пользователя, IP-адрес сервера, агент пользователя, результат HTTP, вероятно, состояние Win32, и вероятно потраченное время

("Вероятно", поля - то, потому что я не могу быть уверен, не видя больше файла.) Заголовок на файле скажет Вам формат наверняка.

Необходимо получить взгляд на тот файл на 1.67 ГБ - он собирается говорить Вам, что произошло. Вход, отключенный на сайте, будет препятствовать тому, чтобы жесткий диск заполнился снова, но Вы хотите знать то, что происходит, негласно, так как это будет производительностью сервера влияния некоторым способом. В конечном счете Вы хотите добраться до сути относительно причины и затем добраться, вход включил снова (так, чтобы у Вас был журнал аудита, если необходимо разыскать странность снова в будущем).

5
задан 15 June 2010 в 06:36
4 ответа

Нет, Вы не можете dedup существующие данные, не копируя его. Rember, Вы только принесете пользу форме dedup, если целая Dedup-таблица впишется в RAM/L2ARC.

Можно оценить преимущества dedup с zds-S poolname withoute даже включающий dedup:

pfexec zdb-S rpool Моделируемая гистограмма DDT:

bucket              allocated                       referenced          
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1     313K   13.4G   13.4G   13.4G     313K   13.4G   13.4G   13.4G
     2     111K   5.27G   5.27G   5.27G     233K   10.7G   10.7G   10.7G
     4    5.15K   96.2M   96.2M   96.2M    22.4K    403M    403M    403M
     8    1.03K   12.2M   12.2M   12.2M    10.3K    111M    111M    111M
    16      384   16.3M   16.3M   16.3M    8.10K    350M    350M    350M
    32      157   6.17M   6.17M   6.17M    6.47K    250M    250M    250M
    64       83   6.52M   6.52M   6.52M    6.37K    511M    511M    511M
   128       17    395K    395K    395K    2.61K   62.5M   62.5M   62.5M
   256        2      5K      5K      5K      802   2.24M   2.24M   2.24M
    2K        1     512     512     512    2.66K   1.33M   1.33M   1.33M
    8K        1    128K    128K    128K    8.21K   1.03G   1.03G   1.03G
 Total     431K   18.8G   18.8G   18.8G     613K   26.8G   26.8G   26.8G

dedup = 1.43, compress = 1.00, copies = 1.00, dedup * compress / copies = 1.43
5
ответ дан 3 December 2019 в 01:27

Остерегайтесь это текущая dedup реализация (создайте 134), требование RAM и имеет нерешенный вопрос, когда большие объемы данных удалены, более или менее облицевав Ваше объединение ZFS кирпичом в течение значительного промежутка времени. http://bugs.opensolaris.org/bugdatabase/view_bug.do;jsessionid=a24a5761748eedbb50cd39d3530e?bug_id=6924390

О дедупликации существующих данных, копируя/перемещая файлы один за другим, в то время как пребывание на том же пуле должно добиться цели.

3
ответ дан 3 December 2019 в 01:27

Большой ответ blasafer, я просто добавил бы, что Указатель Блока переписывает, запланированная опция, которую это активирует повторному сжатию уже хранивших данных, возможно, это могло привыкнуть к re-dedup также. Но это находится в будущем, и я просто предполагаю так или иначе.

1
ответ дан 3 December 2019 в 01:27

Ожидание дедупликации для разоблачения на FreeNAS' ZFS... Требования RAM могут стать более разумными, когда это происходит. Надо надеяться, это также обратится или облегчит 3 + ошибка лет с ARC ZFS, который все еще сохраняется!

http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6522017

(Этот противен, поскольку это также выйдет от пределов VM гипервизора!)

-2
ответ дан 3 December 2019 в 01:27

Теги

Похожие вопросы