сегодня прилетело письмо-счастья..
Фуллскрин стоял на сайте?
По этому сайту ответили, что "на нем было обнаружено аномально высокое количество недобросовестных кликов и показов. Возобновить его работу уже не получится." Так что если вы почистили сайт от прямых переходов и всех подозрительных посетителей, это не значит что его не забанят.
На фуллскрине какой был crt?
Странно, надо код сокрытия метрики смотреть. Сам метрику прячу, роботность 0,5%.
Не проще метрику прятать от прямых заходов, чем банить ботов?
Трафик 28к уников - роботность 0,42%, меньше и не надо.
Вам сколько лет?
Мне за 45+, но причем тут возраст?
У меня приятель программист. Последние 10 лет делал сайты, для себя и на заказ. Жил не тужил. Сейчас ушел грузчиком. 50 лет, никто не хочет брать уже в таком возрасте на работу айтишником.
Ваш приятель явно не программист или вы врете.
А если вдруг робот гуглояндексов решит пройтись по пагинации или фильтрам - а тут подмена данных? Что мы увидим в качестве страниц сайта?
Так тот же фильтр по UA с проверкой маски гугла и яндекса. Ладно, коллеги, я не вебмастер, а программист(c#) не надо меня слушать. :)
if (!IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "66.249.64.0/19") && !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "5.255.231.0/24") && !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "213.180.203.0/24") && !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "5.45.207.0/24") && !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "87.250.224.0/24") && !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "95.108.213.0/24") && !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "5.255.253.0/24") && !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "141.8.142.0/24") && _repository.GetBotIp(Request.UserHostAddress) == null )
Аналогичная ситуация, трафик перетекает в Гугл и при наличии АГС, в целом наблюдаю, что всё перетекает в Гуглу, тупо даже за 2 дня!!!
Было два фильтра в период с 9 августа по 2 октября, трафик с гугда вырос с 7к до 12.5к, до фильтра держался 7-8к продолжительное время. Метку сняли - трафик вернулся и на второй неделе попер, видимо конкурентов покосило...
Вы придумываете себе совершенно ненужные задачи.
Совершенно не согласен, в карте парсер получает "очищенные" данные, которые необходимо скопировать без всякого мусора - страницы с пагинацией, фильтрами и т.д.. Если закрыть доступ(спрятать) к карте, то парсеру придется сделать существенное кол-во запросов к сайту, из-за той же пагинации. Ну а дальше все просто - превышение запросов, врубаем подмену данных.
А ничего, что кто угодно может вписать себе любой юзерагент?
Так откуда они знают, что стоит такое ограничение, обычно видят 404 ошибку и делают выводы, что сайт без карты.