С трудностью...
Ubuntu именами хостов хешей по умолчанию known_hosts файл (это не значение по умолчанию openssh поведение), для создания помех любому читающему файл для знания, к каким системам Вы получаете доступ.
Если Вы действительно хотели вычистить файл, самая простая опция, вероятно, просто удаляют его и проверяют ключи на серверы, которые Вы знаете, как они возникают, но действительно я просто оставил бы known_hosts в покое.
Можно мешать новым записям хостов быть хешированными путем комментирования опции в/etc/ssh/ssh_config
#HashKnownHosts yes
Аналитика Google не заберет поисковые роботы (так как она использует JavaScript, и большинство поисковых роботов не выполняет это).
У Вас есть iFrames или ajax или что-то? Возможно, единственная загрузка страницы загружает несколько других файлов, и они регистрируются (как в Iframe или чем-то) Или являются Вами звонящий .trackPageview()
метод где-нибудь в Вашем JavaScript?
Править: Кроме того, 11 страниц за 3 секунды не это трудно. Если бы я держал Команду/Высокий звук и нажал на все ссылки на этой странице, то они все открылись бы на вкладках в фоновом режиме. Я мог легко открыться 20 + страницы через 3 секунды
я не знаю то, что вызвало те 11 хитов.
Я действительно знаю, что выполняющие JavaScript боты являются стандартной и хорошо зарегистрированной проблемой для практиков веб-аналитики.
Один значительный источник ботов js-выполнения (и наиболее хорошо зарегистрированный) является инструментами испытания на нагрузку, такими как Gomez, Представление ведущих идей, и др. Это не несущественный или малозначительный источник ни один - эти боты могут и часто генерировать много хитов в GA. (Несколько практиков веб-аналитики отметили в угрозе форума, с которой я связался ниже, который в течение нескольких дней, "Советники Gomez" внезапно разоблачили наверху их "Главных Поставщиков услуг" Отчет, затем исчез из него несколько дней спустя.) Этот вопрос часто обсуждается в Советах/форумах веб-аналитики и методах для фильтрации данных, которые они генерируют, легки найти (например, создать пользовательские фильтры в GA использование опубликованного списка IP-адресов, на основе поставщика услуг, и т.д.)
Учитывая, что легко исключить этот трафик с помощью мелкомодульных фильтров в GA, мое представление состоит в том, что это - хорошая идея, просто делают это, а не сначала это - вероятно, хорошая идея сделать так, затем проверить, продолжаете ли Вы видеть те шаблоны в своих данных.
(Еще несколько источников, которые содержат обсуждения ботов js-выполнения в контексте веб-аналитики: