Фильтрация URL и производительность сквида

Наконец обнаруженный проблема. Это была на самом деле проблема конфигурации Apache. Все, что я должен был сделать, добавляют назад:
NameVirtualHost *:80
Listen 80

В мой ports.conf файл и Apache перезапуска. Я первоначально удалил их перед установкой Брандмауэра для ограничения доступа к HTTPS только. После этого мне удалось получить доступ к http://localhost от веб-браузера Lynx в рамках моей сессии SSH.

0
задан 24 February 2013 в 01:49
2 ответа

Итак, у вас проблемы с производительностью с собственным ACL-списком squid.

Какую версию squid вы используете и как насчет спецификаций на коробке?

Мне также любопытно, если вы получают предупреждения в ваших журналах, когда вы перенастраиваете или перезапускаете squid при применении новых черных списков.

Имейте в виду, что .somesite.com также блокирует все поддомены от TLD вниз, поэтому нет необходимости иметь crap.somesite.com и .somesite.com , это вызовет проблемы с производительностью и приведет к переполнению ваших файлов журналов. Если это проблема для вас, убедитесь, что вы разобрали все дубли / подписки и оставили там только TLD, если иное не требуется, чтобы заблокировать только подпрограмму.

Кроме того, пробовали ли вы использовать черный список squid-prime с нашего веб-сайта : http://squidblacklist.com ?

0
ответ дан 5 December 2019 в 15:36

Каждый раз, когда конфигурация Squid перезагружается, все, что делает Squid, приостанавливается.

Я предлагаю использовать ufdbGuard, бесплатный URL-фильтр для Squid. Когда ufdbGuard перезагружает базу данных URL-адресов, это не оказывает негативного влияния на просмотр Squid или пользователей. Можно загрузить ufdbGuard из SourceForge и URLfilterDB .

0
ответ дан 5 December 2019 в 15:36

Теги

Похожие вопросы