Я могу защитить свой sitemap.xml так, чтобы только searchengines мог загрузить его?

Если Вы надеетесь узнавать о DNS, копии книги O'Reilly "DNS, и BIND" и последняя версия связывают установленный, вероятно, лучший способ пойти.

Это верно, что BIND имел больше проблем безопасности в свое время жизни. dnjdns не имел ни одного до прошлого года, но он имеет совсем другую архитектуру от BIND, и можно найти более трудным взять, если Вы не знакомы с тем, как система именования работает.

Если Вы просто надеетесь узнавать о том, как выполнить сервер DNS (в противоположность приобретению знаний о протоколах и таком), Вы были бы лучшими, чтобы просто выбрать один и погружение в. Я ожидаю, что Вы найдете, что двоичные пакеты для обоих в любом *отклоняют дистрибутив, который Вы выбираете. Однако существуют некоторые преимущества для компиляции из источника с программным обеспечением, которое Вы, возможно, должны восстановить, если существует уязвимость системы обеспечения безопасности, о которой объявляют.

Как с любым стоящим с Интернетом сервисом, некоторым здравым смыслом и прагматическими взглядами лучший способ пойти, независимо от того, какое программное обеспечение Вы используете. Если необходимо включить динамические обновления, удостоверьтесь, что они подписываются. Если Вы позволяете зональные передачи, ограничиваете, кто может выполнить их от Вашего разъединять и т.д.

1
задан 14 December 2009 в 08:24
3 ответа

Первое, что пришло на ум Вы могли сделать, переписывают правила, которые перенаправили запросы на sitemap.xml к 404 страницам, если они не соответствуют корректному агенту пользователя или IP-адресам.

У меня нет такого переписывать правило, но я на 99% уверен, что это возможно.

2
ответ дан 3 December 2019 в 16:59
  • 1
    У меня есть три слова для той идеи: " spoof". –  Paused until further notice. 14 December 2009 в 11:25

Как Dennis указал, имитирование этого будет легко. Кроме того, удостоверение, что Вы случайно не исключили поисковую систему, будет трудно.

Скажем, Вы хотите позволить Google, Yahoo и Bing пауку Ваш сайт. Так, Вы только предоставляете доступ к карте сайта для связанных агентов пользователя. Существует две проблемы, теперь:

Что, если сервис изменяет агент пользователя? Что, если необходимо включать другой сервис? Теперь необходимо переписать правила, прежде чем сервис сможет видеть карту сайта.

Почему не был бы я, поскольку sitescraper, просто fradulently сообщают, что я - паук Google? Определение агента пользователя возможно (и легко) на многих различных языках, плюс много браузеров как FireFox и Safari.

Так, короткий ответ, "Нет, но можно мешать. Но это помещает нагрузку на Вас".

2
ответ дан 3 December 2019 в 16:59

Как можно знать то, что и не поисковая система? Агенты пользователя заменимы - но оставление в стороне, что при обнаружении с агентом неизвестного пользователя Вы знаете, является ли это браузер или поисковая система? Существуют сотни компаний с поисковыми системами, таким образом, просто разрешение дюйм/с от Google, Bing, и др. едва достаточно здесь.

Попытка сохранить карты сайта от поисковых систем является формой безопасности через мрак и любого, кто заботится, не будет заблокирован никакими разумными попытками остановить их.

2
ответ дан 3 December 2019 в 16:59

Теги

Похожие вопросы