Это будет иметь смысл только совместно с капчей, т.к. бот спокойно как и реальный посетитель принимает куки. Но если поставить капчу, а куку выдавать только после капчи, то да - у бота куки в последующих заходах не будет, а у реального посетителя будет и его можно уже (повторно) пускать без капчи и без скрытия счетчика.
Можно конечно тупо для всех с пустым рефером не показывать счетчик. Тогда и капча не нужна уже. Но этим самым вы отрубите весь прямой трафик, что может ухудшить ПФ.
Если бы была возможность ювелирно и безболезненно для реальных посетителей отрезать этот трафик, то логично было бы применить лекарство. Но если у лекарства куча нехороших побочек, да и вооще оно похоже на гильотину, то возникают сомнения - стоит ли его применять в (еще) некритичной ситуации? Т.е. надо бы взвешивать плюсы и минусы.
Какой вывод? Каждый случай надо рассматривать индивидуально. И даже если пока всё не страшно (паразитный трафик хороший), разумно будет заранее подготовиться к негативному развитию событий.
Когда появились на сайте боты и когда произошла потеря позиций? Не исключено, что (так как сайт заброшен), то он во многом оставался на хороших позициях за счет накрутки ботами, а когда (если) яндекс научился определять этот паразитный трафик и перестал его учитывать, то ваш сайт и просел закономерно.
А уж специально валить заброшенный сайт такими продвинутыми методами нет смысла.
Ответил сообщением над вашим. Скорей всего ваш сайт является лишь пищей для создания ботам необходимого профиля - либо плохого, либо хорошего. А конечной целью ботов являетесь не вы, а другие сайты - которые накрутчики хотят либо продвинуть, либо завалить.
Исключено. Сайт вообще самопис и даже не на пхп.
Подсетки вроде схожи с обсужаемыми здесь, например левый трафик идет с того же метропилитеновского мегафона, с теле2, ростелекома.
Среднее время на сайте - немного более минуты, но с хорошим случайным распределением - до 5 минут. Количество страниц также имеет разброс, но в среднем около двух. Поведение на каждом заходе также различно. Смотрел по вебвизору - отличить от человека крайне сложно, я смог вычислить ботов лишь по тому, что они часто задерживались (якобы читая) на второстепенных кусках страницы, а не главных по смыслу (что делал бы человек). Ну и равномерность этого трафика говорит о его ботовости, ведь реальный трафик колеблется в зависимости от времени дня, недедели/выходных и пр.
Ну и сам сайт располагает к прямому трафику. Он самодостаточный, со своим морфологическим поиском и огромным массивом информации. Пожтому я сначала подумал, что это реальный трафик. И лишь когда проанализировал трафик в ночь на 1 января, все понял.
У вас ситуация противоположна моей. В моем случае паразитный траф имеет более чем хорошие характеристики. В вашем случая я бы тоже начал предпринимать меры, вопросов нет.
Вот именно. И резать прямой трафик с хорошими показателями (за исключением большого количества такого трафика) - так себе затея...