Как добраться, Apache загружают количества к неделе

В то время как это, как доказывали, не решило проблему в этой ошибке, не все знают, что можно использовать команду заголовка и установить заголовок на то, чем Вы хотите, чтобы это было.

4
задан 5 February 2010 в 21:22
3 ответа

Вы могли использовать апачские журналы для наблюдения, когда к файлам получают доступ и просто обрабатывают файл журнала. Я знаю, что существует много инструментов, чтобы смочь автоматически проанализировать журналы, хотя я никогда не использовал никого.

Неуклюжий возврат поиска Google, с демонстрационным журналом здесь

Другая мысль состоит в том, чтобы передать запрос через страницу, которая зарегистрирует запрос в mysql базу данных, оттуда, Вы могли, генерировал желаемые журналы

2
ответ дан 3 December 2019 в 03:51
  • 1
    Кто-либо может рекомендовать некоторые инструменты, которые проанализировали бы журналы для создания указанного вывода? Ничто, кажется, не генерирует таблицу количеств загрузки даты файла x. –   6 February 2010 в 16:33

Предложение @phsr служить канавке страница является лучшим. Но если Вы не хотите делать это, простой сценарий удара должен смочь получить то, что Вы хотите из файлов журнала.

Я не очень хорош в ударе, и т.д., но если файлы находятся в одном и том же каталоге, что-то вроде этого (псевдокод) должно работать:

for each $file in $mp3dir
   echo $file + ',' + `cat apache.log | grep $file | wc -l` >>myreport.csv

Конечно, фильтр grep может включать что-то еще более определенное, для изоляции несоответствующих строк, которые могут существовать в журнале (журналах).

Кроме того, apache.log является на самом деле кумулятивной кошкой указанные файлы журнала какое-то время период (учитывая, что у Вас есть надлежащий logrotate для вращения журналов ежедневно).

Другой подход мог быть должен использовать grep, чтобы заставить все ".mp3" строки от журнала, и использующий sed формировать csv строку из каждой записи, таким образом, у Вас есть имя файла и дата на одной строке. Затем канал, что в базу данных, и делают запросы оттуда.

Если кто-то может поместить это в "реальный" удар, сделайте :)

1
ответ дан 3 December 2019 в 03:51

Вы захотите проанализировать файлы журнала веб-сервера. Формат журнала будет зависеть от веб-сервера и как вход настроен. Существуют модули для большинства языков, которые делают парсинг журналов относительно тривиальным. Никакая причина обратиться к записи чего-то с нуля в ударе или awk.

Если Вы' не хотите писать какой-либо код затем, я предлагаю проверить splunk. Существует бесплатная версия, которая позволяет Вам анализировать до 500 МБ данных логов ежедневно, это - много данных логов, таким образом, необходимо согласиться со свободной/общественной версией.

Splunk может также экспортировать результаты для Вас.

0
ответ дан 3 December 2019 в 03:51

Теги

Похожие вопросы