Как я должен интерпретировать аналитику сайта с 11 просмотрами страниц в 3-секундном посещении?

С трудностью...

Ubuntu именами хостов хешей по умолчанию known_hosts файл (это не значение по умолчанию openssh поведение), для создания помех любому читающему файл для знания, к каким системам Вы получаете доступ.

Если Вы действительно хотели вычистить файл, самая простая опция, вероятно, просто удаляют его и проверяют ключи на серверы, которые Вы знаете, как они возникают, но действительно я просто оставил бы known_hosts в покое.

Можно мешать новым записям хостов быть хешированными путем комментирования опции в/etc/ssh/ssh_config

#HashKnownHosts yes
0
задан 1 May 2010 в 15:03
2 ответа

Аналитика Google не заберет поисковые роботы (так как она использует JavaScript, и большинство поисковых роботов не выполняет это).

У Вас есть iFrames или ajax или что-то? Возможно, единственная загрузка страницы загружает несколько других файлов, и они регистрируются (как в Iframe или чем-то) Или являются Вами звонящий .trackPageview() метод где-нибудь в Вашем JavaScript?

Править: Кроме того, 11 страниц за 3 секунды не это трудно. Если бы я держал Команду/Высокий звук и нажал на все ссылки на этой странице, то они все открылись бы на вкладках в фоновом режиме. Я мог легко открыться 20 + страницы через 3 секунды

1
ответ дан 23 November 2019 в 13:09
  • 1
    Привет @webdestroya. нет, у меня нет iframes, никакого вызова к .trackPageview (). Ajax используется для обработки представления формы контакта только, и jQuery используется для простых анимаций. Кроме этого сайтом является стандартный HTML и CSS. –   1 May 2010 в 15:21
  • 2
    Кроме того, 11 страниц за 3 секунды isn' t настолько трудно. Если бы я держал Команду/Высокий звук и нажал на все ссылки на этой странице, то они все открылись бы на вкладках в фоновом режиме. Я мог легко открыться 20 + страницы через 3 секунды. –  Mitch Dempsey 1 May 2010 в 15:22

я не знаю то, что вызвало те 11 хитов.

Я действительно знаю, что выполняющие JavaScript боты являются стандартной и хорошо зарегистрированной проблемой для практиков веб-аналитики.

Один значительный источник ботов js-выполнения (и наиболее хорошо зарегистрированный) является инструментами испытания на нагрузку, такими как Gomez, Представление ведущих идей, и др. Это не несущественный или малозначительный источник ни один - эти боты могут и часто генерировать много хитов в GA. (Несколько практиков веб-аналитики отметили в угрозе форума, с которой я связался ниже, который в течение нескольких дней, "Советники Gomez" внезапно разоблачили наверху их "Главных Поставщиков услуг" Отчет, затем исчез из него несколько дней спустя.) Этот вопрос часто обсуждается в Советах/форумах веб-аналитики и методах для фильтрации данных, которые они генерируют, легки найти (например, создать пользовательские фильтры в GA использование опубликованного списка IP-адресов, на основе поставщика услуг, и т.д.)

Учитывая, что легко исключить этот трафик с помощью мелкомодульных фильтров в GA, мое представление состоит в том, что это - хорошая идея, просто делают это, а не сначала это - вероятно, хорошая идея сделать так, затем проверить, продолжаете ли Вы видеть те шаблоны в своих данных.

(Еще несколько источников, которые содержат обсуждения ботов js-выполнения в контексте веб-аналитики:

Блог SlickSurface

Seomoz

Блог онлайн-маркетинга

0
ответ дан 23 November 2019 в 13:09

Теги

Похожие вопросы