Переиндексное задание, переставшее работать из-за того, чтобы быть жертвой мертвой блокировки, но это - единственный процесс, работающий в 3:00..?

Как ранее упомянуто, спецификация robots.txt довольно проста. Однако одна вещь, которую я сделал, создают динамический сценарий (PHP, Python, безотносительно) это просто называют "robots.txt", и имейте его, энергично генерируют ожидаемую, простую структуру с помощью более интеллектуальной логики сценария. Можно обойти подкаталоги, использовать регулярные выражения, и т.д.

Вам, возможно, придется настроить Ваш веб-сервер немного, таким образом, он выполняет "robots.txt" как сценарий вместо того, чтобы просто подать содержание файла. С другой стороны, можно было выполнить сценарий через задание крона, которое повторно создает robots.txt однажды ночь (или однако часто этому нужно обновление),

2
задан 15 July 2011 в 11:43
2 ответа

Вы добрались, флаги трассировки мертвой блокировки включили (1222, и т.д.)? Они дадут Вам дамп мертвой блокировки в файле SQL Server ERRORLOG (обычно в каталоге журналов) и таким образом должны помочь Вам добраться до сути относительно него. См. http://msdn.microsoft.com/en-us/library/ms178104 (v=SQL.90) .aspx для получения дополнительной информации.

Это может быть включено для текущего сервиса с DBCC TRACEON (-1, 1222). Однако, если Вы захотите, чтобы traceflag был постоянным изменением затем, то необходимо будет поместить traceflag на параметры запуска SQL Server (-T1222) и затем остановите и перезапустите SQL Server.

2
ответ дан 3 December 2019 в 12:08

Можно также создать задание агента, которое получает график мертвой блокировки. см.: http://msdn.microsoft.com/en-us/library/ms186385%28v=SQL.90%29.aspx

0
ответ дан 3 December 2019 в 12:08

Теги

Похожие вопросы