Можно использовать файл robots.txt для исключения указанных страниц из того, чтобы быть проверенным. Это было бы похоже на это:
User-Agent: Googlebot
Disallow: /file-1
Disallow: /file-2
Disallow: /file-3
Создайте это в любом текстовом редакторе и загрузке на Ваш корневой каталог (или отредактируйте существующий файл robots.txt, если Вы там).
Инструменты веб-мастера также имеют инструмент для генерации файла robots.txt (Инструменты> Генерируют robots.txt),
По-видимому, Ваш wtmp файл был повернут, так попытка last -f /var/log/wtmp.1
или last -f /var/log/wtmp.0
считать предыдущие файлы. Если они не работают, ls /var/log/wtmp*
и посмотрите, называют ли их чем-то еще. Если они сжаты (.gz
расширение), распакуйте их.
Если они не там, найдите, кто бы ни устанавливает схему вращения яиц и дает им твердую перфорацию ноги панталонам. Нет никакой причины не сохранить по крайней мере несколько недель wtmp
журналы.
Если wtmp файлы не доступны, можно также непосредственно посмотреть на/var/log/secure или/var/log/messages, чтобы видеть, что любой вход в систему обменивается сообщениями там.