Nginx ssi с proxy_cache, зависающим после первого запроса

Можно вызвать проверку (например), md0 с

echo "check" > /sys/block/md0/md/sync_action

Можно проверить состояние теста с

cat /sys/block/md0/md/sync_action

в то время как это возвращается check проверка работает, после того как она возвращается idle можно сделать a

cat /sys/block/$dev/md/mismatch_cnt

видеть, является ли количество несоответствия нулем или нет. Много дистрибутивов автоматизируют эту проверку для выполнения, например, еженедельно за Вами так или иначе, так же, как большинство промышленных аппаратных НАБЕГОВ постоянно выполняет это в фоновом режиме (они часто называют ее "вычищением RAID"), в то время как массив в других отношениях неактивен. Обратите внимание, что согласно комментариям в автоматизированном файле проверки мягкой фетровой шляпы, записи RAID1 в ядре освобождены буфер и поэтому не сочетаются, количества могут быть ненулевыми даже для здорового массива, если массив смонтирован.

Так замораживание массивов путем выполнения этой проверки, в то время как VM снижается, если вообще возможный, является, вероятно, хорошей идеей.

Я добавил бы, что соглашаюсь с документами, когда они говорят это

RAID не может и, как предполагаться, не принять меры против повреждения данных на медиа

RAID, как предполагается, принимает меры против полного отказа устройства; принятие мер против возрастающих внезапных отказов в элементах устройства хранения является заданием для проверки ошибок и переотображения блока, которое, вероятно, лучше всего сделано в самом контроллере. Я рад, что документы предупреждают людей ограничений RAID, особенно если он реализован сверху облупленных устройств. Я нахожу, что частые smartctl проверки состояния моих дисков помогают мне остаться сверху дисков, которые начинают показывать вид ошибок, которые приводят к несинхронизированным зеркалам.

1
задан 3 March 2013 в 21:56
1 ответ

Я нашел ответ.

В предыдущей конфигурации у меня было кэширование для $ request_uri . Это означает, что nginx будет сохранять и извлекать кеши на основе входящего запроса . На стороне сервера include делает другой запрос , но, поскольку кеширование основано на входящем uri, в конечном итоге происходит выборка самой главной страницы, тем самым вставляя себя повторно.

Используя вместо $ uri of $ request_uri nginx будет учитывать перезапись и ssi-запросы, таким образом, кэширование и выборка через соответствующие пространства имен (в данном случае ssi-маршруты, определенные приложением).

Подробнее о переменных nginx

0
ответ дан 4 December 2019 в 09:20

Теги

Похожие вопросы