Сделать сайт Google Apps публично доступным при отключении поисковых роботов с robots.txt?

Существуют нормальные проблемы наличия страничного файла на SSD, главным образом ограниченное количество записей (стирается, безотносительно), SSD поддержки.

Я никогда не делал этого, но, с тем, что XP не всегда лучше всего с SSD, можно получить самое большее маленькое повышение производительности. Примерно тот же тип производительности повышает, как будто Вы переместили файл подкачки в любой диск помимо загрузочного диска.

0
задан 18 January 2010 в 19:12
1 ответ

robots.txt не препятствует тому, чтобы интерактивные браузеры использовали сайт. Это только используется роботами как поисковые роботы, feedreaders, рекурсивными инструментами загрузки (хотя последний позволит пользователю переопределить его).

1
ответ дан 4 December 2019 в 23:13
  • 1
    Абсолютно, но это не имеет значения в моем случае. Я просто хочу, чтобы результаты не обнаружились в Google. –  Joannes Vermorel 20 January 2010 в 13:49
  • 2
    Да, но теперь it' s очевидный можно просто записать robots.txt с двумя строками, который исключает всех везде (/и *). –  Tobu 21 January 2010 в 00:17

Теги

Похожие вопросы