Высоко в зависимости от Вашей ОС и/или дистрибутива, и безотносительно пользователя Вы хотите выполнить SA как и т.д. и т.д....
В master.cf помещает что-то как:
# aa.bb.cc.dd == your IP
# example.com == your hostname
aa.bb.cc.dd:smtp inet n - n - - smtpd
-o content_filter=spamassassin
-o myhostname=example.com
-o smtp_bind_address=aa.bb.cc.dd
# (note content_filter)
#
# -snip-
#
spamassassin unix - n n - - pipe
user=sa argv=/usr/bin/spamc -e /etc/alternatives/mta -oi -f ${sender} ${recipient}
# change 'user=sa' to whatever user you have setup.
# change '/etc/alternatives/mta' to whatever you're using to put
# mail back into the queue. (eg: /usr/local/sbin/sendmail )
# change /usr/bin/spamc to the location of your spamc binary, obviously. :)
Они были полезными ответами, но действительно не помогли в этом случае.
В конце я смог сделать использование поиска Filezilla для файлов свыше определенного размера и отобразить их в порядке размера. Это не смогло дать мне самые большие каталоги, но это действительно давало мне самые большие файлы, который возможно более полезен.
Спасибо так или иначе!
Это зависит от программного обеспечения FTP-сервера, используемого в другом конце.
Некоторые подобные Unix демоны FTP поддерживают получение рекурсивного списка каталогов (Вы произвести подобные этому от ls-lR), который Вы могли вручную просканировать для поиска больших файлов, но это не стандартная функция. Вы могли попытаться просто дать команду ls -lR
непосредственно и посмотрите то, что Вы возвращаете, или LIST -lR
.
Если у Вас есть доступ SSH к удаленному концу, а также FTP, то Вы могли использовать du
управляйте для списка размеров каталога. Если Вы находитесь в высокоуровневом каталоге области, у Вас есть фиксированная квота для, то издание du
добьется цели или du -h
если Вы предпочитаете вывод в Гбите/Мбите/Кбите вместо байтов. Также du -sc *
(или du -shc *
) перечислит сводку для текущего каталога, без отдельных чтений для всех подкаталогов.
Править: Я забыл добавлять выше, что, если Вы входите через командную строку в клиент FTP (или видите полный журнал операций в каком-либо основанном на GUI клиенте, Вы используете), сервер может идентифицировать себя (т.е. фактический используемый демон FTP и его номер версии). Если так, можно использовать эту информацию, чтобы определить местоположение документации для сервера и видеть, поддерживает ли это действительно официально рекурсивный список каталогов.
Еще одно предложение: если можно позволить себе потратить впустую пропускную способность больше, чем можно позволить себе провести время на поиске больших файлов, Вы могли du рекурсивная загрузка местоположения FTP к Вашей локальной машине и анализировать размеры файла/каталога там с помощью локальных инструментов.
Много более оптимального варианта, но вероятно только доступный при выполнении Linux состоит в том, чтобы использовать основанную на FUSE файловую систему FTP (http://sourceforge.net/apps/mediawiki/fuse/index.php?title=NetworkFileSystems#CurlFtpFS) - это позволило бы Вам использовать команды как du
и find
непосредственно в файловой системе FTP от Вашей локальной машины.
Если можно войти в систему FTP-сервера (и он выполняет что-то достаточно подобное Unix), можно использовать или найти или du для определения местоположения пользователей пространства.
Для рекурсивного нахождения больших файлов с du можно использовать "du-s *" (или "du-s * | вид-n") для нахождения самых больших каталогов и файлов, затем рекурсивно проложить себе путь вниз дерево, концентрирующееся на них.
Для нахождения большого использования файлов находят, используют, "находят. - тип f - размер +nM - печать" (это должно дать Вам список всех файлов, больше, чем n МБ). С тщательной настройкой n это должно дать Вам точно большие файлы.
Если у Вас нет доступа оболочки, необходимо будет войти в систему размещенного FTP-сайта и использовать команду "dir" FTP для получения этой информации. Бесцеремонно, я не знаю ни о чем готовом, чтобы рекурсивно вызвать через и найти большие файлы, но существует несколько программ там для зеркального отражения FTP, и возможно один из тех позволил бы Вам вытягивать локальную копию сайта, таким образом, можно сделать основанное на оболочке исследование там.
Если вы используете * NIX, то:
for i in G M K; do du -ah | grep [0-9] | sort -nr -k 1; done | head -n 11
даст вам 10 самых больших файлов.
Запустите его из каталога, из которого вы хотите искать.
Если у вас есть доступ к cPanel, тогда у вас есть очень хороший и точный инструмент «Использование дискового пространства» в категории «Файлы».