WGet или ЗАВИХРЕНИЕ: зеркало сайта из http://site.com И Никакого Внутреннего Доступа

Существует несколько различных вариантов для автоматизации этого использования хранимой процедуры / TSQL или powershell сценарий (я рекомендовал бы powershell сценарий). Если Вы захотите записать свою собственную автоматизацию для того, чтобы сделать это, то Вы в основном захотите изучить "список файлов восстановления только" оператор, который даст Вам список всех файлов в данном наборе резервных копий (и в этой фигуре случая, какой filenumber является новым различным резервным копированием для полного резервного копирования, которое Вы имеете).

Обратите внимание, что, если Вы хотите восстановить дифференциал, Вы, должно быть, восстановили новое Полное резервное копирование, которое связано с данным РАЗЛИЧНЫМ резервным копированием также для этого для работы или потенциально оставило восстановленную dev базу данных в восстанавливаемом состоянии.

Например, это работало бы:

  • Полное резервное копирование восстановления с воскресенья на DEV
  • Восстановите различное резервное копирование с понедельника на DEV

это работало бы также:

  • Полное резервное копирование восстановления с воскресенья на DEV
  • Восстановите различное резервное копирование со вторника или в среду или в четверг на DEV

однако, это не будет работать:

  • Полное резервное копирование восстановления с воскресенья на DEV
  • Возьмите полное резервное копирование в понедельник на НАПОМИНАНИИ
  • Восстановите различное резервное копирование со вторника на DEV

В этом заключительном случае необходимо было бы также восстановить полное резервное копирование с понедельника на DEV прежде, чем восстановить Различное резервное копирование со вторника, будет позволен. Существуют исключения (например, если полное резервное копирование в понедельник было COPY_ONLY, копируют и не повредил различную резервную цепочку). Дополнительную информацию см. в этой статье об использовании РАЗЛИЧНЫХ резервных копий и цепочки восстановления, требуемой для использования.

2
задан 11 February 2011 в 17:12
2 ответа
-1
ответ дан 3 December 2019 в 15:59

К сожалению, wget не может анализировать JavaScript, поэтому поиск такого сайта довольно затруднен.

Хорошая новость в том, что поисковые системы обычно не анализируют его , поэтому они, скорее всего, скармливают поисковым системам немного другой контент (что является плохой идеей по другим причинам ), чтобы они могли проиндексировать свои страницы. Они должны кормить страницы поисковых систем, которые доступны без JavaScript, если они действительно хотят быть проиндексированы. Если это так, вы можете обойти это, подделав Googlebot с помощью wget, например:

wget --user-agent="Mozilla/5.0 (compatible; Googlebot/2.1; +http://www. google.com/bot.html)" ...

Очень немногие сайты действительно проверяют ваш IP-адрес, чтобы узнать, действительно ли вы робот Google, но это гораздо реже, чем должно быть.

Еще нужно проверить наличие / sitemap. xml и используйте его как список URL-адресов для сканирования. Некоторые сайты предоставляют этот файл для Google и других поисковых систем, чтобы они могли использовать для поиска своего контента, но ничто не говорит о том, что вы также не можете его использовать ...

1
ответ дан 3 December 2019 в 15:59

Теги

Похожие вопросы