Потому что метрика в целом плохо считает ботов. Часто возюканье мышкой и скролл туда-сюда по одному месту 2 минуты для неё это не бот, а нашедший за 20 секунд нужный ответ реальный человек -- бот.Также бывают случаи, когда счётчик крутится на сохранённых страницах или ещё как-то за пределами сайта, и всё это учитывается в роботов несмотря ни на какие настройки.
Вот ещё интересный пример, как замена неспособного определять роботов древнючего кода метрики на новый привела к росту роботности. Я скорее поверю в то, что метрика +/- от балды рисует этот параметр, чем в случайность или то, что боты как-то там подстраиваются под версию счётчика.
Учёл, при такой низкой посещалке заходов по ссылкам и прямых будет около нуля, ими можно пренебречь.
Масштаб )))
Если ось Y на графике - 60 000 - 80 000 "посетителей" в сутки, то в масштабе в сравнении - 2 000 посетителей превратятся в тонкую полосочку.
2000 посетителей за 10 дней?Потому что при 2000 посетителей в сутки, при учёте, что одна ячейка это "50 часов / 250 чел." график должен быть в среднем в районе 16% от высоты ячейки, т.е. в районе ~25-30% в дневное время из-за спада ночью. На скриншоте такого и близко нет. Скорее это сайт с 200-500 посетителями в день в лучшем случае.
Да, эту сказку я тоже слышал.
Как и твои сказки про успешную настройку для поиска дурачков, желающих за это заплатить.Что я должен увидеть на этом скриншоте? То, что можно заблокировать ботов на сайте с посещаемостью 100 хостов в день? Так я об этом как раз и написал, это не эффективность методики, а лишь подтверждение, что такие сайты ботам не особо и нужны, чтобы подстраиваться под них.
Клауд говно и не работает, потому что почти все заблокированные прямые и т.п. заходы очень быстро превращаются в заходы с поиска, а те в свою очередь:- большей частью не блокируются без добавления существенных неудобств обычным пользователям- если блокируются, то дают большой рост отказов, который ещё хуже роботности
Также при закрытии большинства лазеек некоторые боты перенаправляются на прямые заходы на главную, а ставить слишком строгую защиту на такие заходы будет только владелец ГС без постоянной аудитории, либо идиот.
Единственные сайты, на которых можно более-менее победить ботов — микроскопические с посещалкой в полтора землекопа.
Не пытайтесь привязать спад к каким-то последним событиям и личностям, он начался много лет назад, когда некоторые из вас могли ещё не заниматься сайтами. Были лишь явные скачки, которые никак не были завязаны на экономической ситуации, а лишь на растущей жадности яндекса. На моей памяти таких скачков было несколько:- переход от прозрачной системы оплаты кликов к шейв-системе оплаты показов- запрет рекламодателям добавления сервисов яндекса в чёрный список- очень странная ситуация с сайтами по типу fb.ru- нынешняя ситуация с МПК, ботами и автонаполняемыми сайтами с рекламой РСЯ, которые по каким-то (понятно каким) причинам в РСЯ не банят
Не стоит, его ответы зачастую полностью не соответствуют действительности.