Почему бы Яндексу официальный антибот скрипт не сделать, выложили бы, все поставили, и забыли за ботов. А то клоунада с вашей стороны. Ботов мы видим но не учитываем - на самом деле все учитываете и сайты валятся. РСЯ - видит ботов и не учитывает склик - на самом деле все прекрасно склеивается.
Ну и что там по событиям прошлой недели. Вы говорили отпишитесь, так и не отписались.
Думаю его не произойдет, это же Яндекса, сча слюни потекут от того что увидят сколько себе отжали. Пора менять рекламные коды на адсенс)
Добрый день! Наши технические специалисты уже занимаются решением этой ситуации. В ближайшее время она будет решена. В любом случае, спасибо за обратную связь.
Так что произошло, расскажите нам, очень интересно что вы делаете. А то уже пришлось все сайты в адсенс на модерацию отправить с такими качелями
Дмитрий Громов, вы можете внятно объяснить что произошло 14-17 сентября? Ботов типа пофиксили и с ними часть реальных кликов? Просто напишите что сделали, что бы мы понимали. Так как вы доходы и так уже по минимуму для вебмастеров сделали, так еще и тут урезали не пойми что и как.
Ага) Только они вместе с ботами теперь и клики реальных людей отсеивают)
Что есть то есть. Вся надежда на ботоводов, надеюсь побыстрее все фиксанут.
на 1 сайте такая же проблема. Там боты так хорошо накликивали, сейчас как будто их отсеивать начали. Ану верните все обратно!!!!)
Все просто, это у них секрет.
Ставите в rss запрет, но в самом вебмастере не отключаете рсс. Ждете пока робот схавает это и потом можете удалять.
Чего они это не расписали нормально я хз.
Не говорите бред! Ботами вы не чего, не тем более покупатель вашего "сайта" ботами хер что отобьет! Все сейчас отсекается( тем более боты( К сожалению!
да кэп, вы правы. Я все это придумал)
Здравствуйте! Фильтрация роботов по строгим правилам и поведению удаляет из исходных данных, собранных кодом счетчика, визиты поведенческих роботов. Эти данные не попадут в отчеты и невозможно будет просмотреть по ним статистику, воспользовавшись изменением режима отображения статистики. При этом, при фильтрации роботов по строгим правилам и поведению роботы как посещали сайт, так и продолжат это делать. Именно поэтому мы рекомендуем использовать фильтрацию роботов по строгим правилам.
Так самый главный вопрос вы это чисто косметически сделаете, или на уровне алгоритма будете фильтровать что бы они сайты не валили. Сейчас они беспроблемно сайты проваливают в выдачи за счет плохих пф.
Как бы то что в метрике их не будет, а на самом деле сайт и дальше будет страдать, толку от этого мало. В итоге вебмастер даже не узнает почему у него сайт не идет в топ. И по метрике вроде как ботов не будет.
Здравствуйте! Для того, чтобы команды на отключение (turbo="false") могли обработаться, необходимо RSS-источники с ними оставить включенными в Вебмастере на некоторое время — пока все Турбо-страницы не исчезнут из поиска. Затем источники можно будет отключить и удалить.
Понял, сейчас сделаю. Наверное плохо я инструкцию читал. А некоторое время это сколько? День/месяц/год?
А то Дзен канал на монету проверяют уже больше года, пишут еще очередь не дошла. Может тут такая же ситуация?)