Некорректно работает подсветка noindex. Подсвечивает в 1 случае из 10, версия плагина и фф последнии.
У нас был случай недавно - заказчик сам накручивал свой сайт :) Так что, даже такие нелепые варианты не стоит исключать.
Ну а у Вас 2 варианта - либо что-то не так смотрите (посегментируйте трафик в статистике, хотя не уверен насчет возможностей лиры), либо накрутка (ведь трафик и ВМ и стата показывают).
И что? Чтобы в серпе была ссылка, сама страница не обязана быть в индексе.
И второе: у Вас есть статистика, вебмастер и пр. - неужели Вы не можете сами разобраться? Посмотрите фразы поисковые, почекайте их позиции.
Сдается мне, автор бы не создал тему из-за глюка вебмастера, и наверное вручную проверил на индекс:)
Внешних ссылок ~ 400, они могут давать трафик по НЧ и пр, будет просто НПС.
Для этого и надо знать историю пользователя. Если он участвовал в основном в подозрительных сессиях, то помечаем его - есть вероятность неестественности. Чем больше неестественных сессий на сайте, тем больше вероятность нестественности каждого отдельно взятого "меченого" пользователя (и соответственно каждой его единичной сессии). Но, это имхо конечно :)
По аналогии, Вы не узнаете какая ссылка продажная, а какая нет, не зная и не оценив весь сайт-донор в целом.
Если Вы о живых пользователях, то я как-то пропустил эту тему.:)---------- Post added 28-03-2014 at 19:10 ----------
Здесь наверное соглашусь:)
Ну, если я правильно понял, то это не проблема :) Для личных целей можно выделить под это "чистый" сайт и закинуть его понятно куда :) Плюс, в ГА, к примеру, можно назначить им пользовательские переменные.
Я выделил слово одну :)
А что мешает мне задать маршурт по паттерну "естественности" ?:) К тому же, имхо, для общих случаев, на ip и реферы нельзя полагаться.
Для начала надо спросить - а где в метрике есть возможность строить отчет по сессиям? :)
Но суть даже не в этом - одну реальную сессию от одной "сделанной" и не отличить (при условии, что сделана она не ботом).
К тому же, почему-то Вы исходите только от внутрисайтового маршрута - а используется скорее всего поведение на SERP. Математику я подзабыл, но что-то мне подсказывает, что заказанное поведение в серпе по многим параметрам (распределение ctr, dwell-time, изучение сниппетов и пр) будет отличаться от естественного.
Еще, к примеру, можно использоваться первоначальный пул "пользователей-накрутчиков", и от него плясать, расширяя список пользователей и сайтов.
Поведение на сайте скорее полезнее для отделения ботов.
Думаю, уцепиться можно. Меня больше интересует, как они прочекают кто крутит - сам или конкуренты - для наложения своей кары. Если конечно не брать в расчет нулевики :) Особую остроту добавляет неадекватность службы поддержки Яндекса (кроме самых крайних случаев) - можно ведь и не знать, что ты под фильтром :)
Вы, случаем, графоманством не страдаете? Ссылки и в классическом PR служат некой мерой "популярности" (посещаемости) страниц.
Ребят, у меня снова проблемы с персонализацией позиций в программе :) Что делать?