Это - основанный на IPv6 доступ к WSUS, который Вы видите там.
Временно отключите вход так, чтобы Вы не заполняли диск снова:
Это будет мешать журналам расти.
Я не могу сказать, что видел, что WSUS-связанный трафик создает журналы, настолько большие прежде. 4.4 МБ за день не неслыханны, но 1.67 ГБ за день означает, что что-то пошло не так, как надо.
Вчерашний файл журнала собирается сказать Вам партии о том, что происходило. Мне трудно полагать, что это был весь трафик WSUS. Интересно, не начинало ли что-то еще барабанить в сервер. Получите тот больший файл журнала от машины и взгляните на него.
Ваш журнал похож, это находится в расширенном формате W3C. Формат того файла журнала, кажется:
Дата, Время, исходный IP-адрес, метод Запроса HTTP, основа URI, вероятно, запрос URI, порт сервера, имя пользователя, IP-адрес сервера, агент пользователя, результат HTTP, вероятно, состояние Win32, и вероятно потраченное время
("Вероятно", поля - то, потому что я не могу быть уверен, не видя больше файла.) Заголовок на файле скажет Вам формат наверняка.
Необходимо получить взгляд на тот файл на 1.67 ГБ - он собирается говорить Вам, что произошло. Вход, отключенный на сайте, будет препятствовать тому, чтобы жесткий диск заполнился снова, но Вы хотите знать то, что происходит, негласно, так как это будет производительностью сервера влияния некоторым способом. В конечном счете Вы хотите добраться до сути относительно причины и затем добраться, вход включил снова (так, чтобы у Вас был журнал аудита, если необходимо разыскать странность снова в будущем).
Нет, Вы не можете dedup существующие данные, не копируя его. Rember, Вы только принесете пользу форме dedup, если целая Dedup-таблица впишется в RAM/L2ARC.
Можно оценить преимущества dedup с zds-S poolname withoute даже включающий dedup:
pfexec zdb-S rpool Моделируемая гистограмма DDT:
bucket allocated referenced
______ ______________________________ ______________________________
refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE
------ ------ ----- ----- ----- ------ ----- ----- -----
1 313K 13.4G 13.4G 13.4G 313K 13.4G 13.4G 13.4G
2 111K 5.27G 5.27G 5.27G 233K 10.7G 10.7G 10.7G
4 5.15K 96.2M 96.2M 96.2M 22.4K 403M 403M 403M
8 1.03K 12.2M 12.2M 12.2M 10.3K 111M 111M 111M
16 384 16.3M 16.3M 16.3M 8.10K 350M 350M 350M
32 157 6.17M 6.17M 6.17M 6.47K 250M 250M 250M
64 83 6.52M 6.52M 6.52M 6.37K 511M 511M 511M
128 17 395K 395K 395K 2.61K 62.5M 62.5M 62.5M
256 2 5K 5K 5K 802 2.24M 2.24M 2.24M
2K 1 512 512 512 2.66K 1.33M 1.33M 1.33M
8K 1 128K 128K 128K 8.21K 1.03G 1.03G 1.03G
Total 431K 18.8G 18.8G 18.8G 613K 26.8G 26.8G 26.8G
dedup = 1.43, compress = 1.00, copies = 1.00, dedup * compress / copies = 1.43
Остерегайтесь это текущая dedup реализация (создайте 134), требование RAM и имеет нерешенный вопрос, когда большие объемы данных удалены, более или менее облицевав Ваше объединение ZFS кирпичом в течение значительного промежутка времени. http://bugs.opensolaris.org/bugdatabase/view_bug.do;jsessionid=a24a5761748eedbb50cd39d3530e?bug_id=6924390
О дедупликации существующих данных, копируя/перемещая файлы один за другим, в то время как пребывание на том же пуле должно добиться цели.
Большой ответ blasafer, я просто добавил бы, что Указатель Блока переписывает, запланированная опция, которую это активирует повторному сжатию уже хранивших данных, возможно, это могло привыкнуть к re-dedup также. Но это находится в будущем, и я просто предполагаю так или иначе.
Ожидание дедупликации для разоблачения на FreeNAS' ZFS... Требования RAM могут стать более разумными, когда это происходит. Надо надеяться, это также обратится или облегчит 3 + ошибка лет с ARC ZFS, который все еще сохраняется!
http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6522017
(Этот противен, поскольку это также выйдет от пределов VM гипервизора!)