Как ранее упомянуто, спецификация robots.txt довольно проста. Однако одна вещь, которую я сделал, создают динамический сценарий (PHP, Python, безотносительно) это просто называют "robots.txt", и имейте его, энергично генерируют ожидаемую, простую структуру с помощью более интеллектуальной логики сценария. Можно обойти подкаталоги, использовать регулярные выражения, и т.д.
Вам, возможно, придется настроить Ваш веб-сервер немного, таким образом, он выполняет "robots.txt" как сценарий вместо того, чтобы просто подать содержание файла. С другой стороны, можно было выполнить сценарий через задание крона, которое повторно создает robots.txt однажды ночь (или однако часто этому нужно обновление),
Вы добрались, флаги трассировки мертвой блокировки включили (1222, и т.д.)? Они дадут Вам дамп мертвой блокировки в файле SQL Server ERRORLOG (обычно в каталоге журналов) и таким образом должны помочь Вам добраться до сути относительно него. См. http://msdn.microsoft.com/en-us/library/ms178104 (v=SQL.90) .aspx для получения дополнительной информации.
Это может быть включено для текущего сервиса с DBCC TRACEON (-1, 1222)
. Однако, если Вы захотите, чтобы traceflag был постоянным изменением затем, то необходимо будет поместить traceflag на параметры запуска SQL Server (-T1222
) и затем остановите и перезапустите SQL Server.
Можно также создать задание агента, которое получает график мертвой блокировки. см.: http://msdn.microsoft.com/en-us/library/ms186385%28v=SQL.90%29.aspx