Kykapa4a

Рейтинг
84
Регистрация
29.01.2020
Иван Комаров #:

сегодня прилетело письмо-счастья..

Фуллскрин стоял на сайте?

GasTarbols #:

По этому сайту ответили, что "на нем было обнаружено аномально высокое количество недобросовестных кликов и показов. Возобновить его работу уже не получится." Так что если вы почистили сайт от прямых переходов и всех подозрительных посетителей, это не значит что его не забанят.

На фуллскрине какой был crt?

Shelton724 #:
Очень неожиданные результаты эксперимента получились у меня. По метрике было: посещалка 5000, роботность - 65%. Загасил все переходы с 4 самых спамных обсуждаемых тут сетей, на все переходы без реферера не вставляю метрику, кроме как для роботов Я и Г. Результат по метрике: посещалка 1000 (капец, канеш, там реальная посещалка по сравнению со старыми показателями метрики), роботность (парам-парам-пам-фьють!) 65%. Чё за фигня, интересно...

Странно, надо код сокрытия метрики смотреть. Сам метрику прячу, роботность 0,5%.

Не проще метрику прятать от прямых заходов, чем банить ботов?

Трафик 28к уников - роботность 0,42%, меньше и не надо.


Brat_Sergij #:

Вам сколько лет?

Мне  за 45+, но причем тут возраст?

Brat_Sergij #:

У меня приятель программист.  Последние 10 лет делал сайты, для себя и на заказ. Жил не тужил.  Сейчас ушел грузчиком. 50 лет, никто не хочет брать уже в таком возрасте на работу айтишником. 

Ваш приятель явно не  программист или вы врете.

webinfo #:

А если вдруг робот гуглояндексов решит пройтись по пагинации или фильтрам - а тут подмена данных? Что мы увидим в качестве страниц сайта?

Так тот же фильтр по UA с проверкой маски гугла и яндекса. Ладно, коллеги, я не вебмастер, а программист(c#) не надо меня слушать. :)

if (!IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "66.249.64.0/19") &&
                            !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "5.255.231.0/24") &&
                            !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "213.180.203.0/24") &&
                            !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "5.45.207.0/24") &&
                            !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "87.250.224.0/24") &&
                            !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "95.108.213.0/24") &&
                            !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "5.255.253.0/24") &&
                    !IpAddressExtensions.IsInSubnet(IPAddress.Parse(Request.UserHostAddress), "141.8.142.0/24") &&
                            _repository.GetBotIp(Request.UserHostAddress) == null
                            )
Romashka1g #:

Аналогичная ситуация, трафик перетекает в Гугл и при наличии АГС, в целом наблюдаю, что всё перетекает в Гуглу, тупо даже за 2 дня!!! 

Было два фильтра в период  с 9 августа по 2 октября, трафик с гугда  вырос с 7к до 12.5к, до фильтра держался 7-8к продолжительное время.  Метку сняли - трафик вернулся и на второй неделе попер, видимо конкурентов покосило... 

Антоний Казанский #:

Вы придумываете себе совершенно ненужные задачи.

Совершенно не согласен, в карте парсер получает "очищенные" данные, которые необходимо скопировать без всякого мусора - страницы с пагинацией, фильтрами  и т.д..   Если закрыть доступ(спрятать) к карте, то парсеру придется сделать существенное кол-во запросов к сайту, из-за той же пагинации. Ну а дальше все просто - превышение запросов, врубаем подмену данных.  

webinfo #:

А ничего, что кто угодно может вписать себе любой юзерагент?

Так откуда они знают, что стоит такое ограничение, обычно видят 404 ошибку и делают выводы, что сайт без карты.

Всего: 623