Точных цифр никто не даст. Да их и нет, в этой сфере они все динамические, поэтому надо отталкиваться от медианных данных. И в этом плане градация 3/10 работает хорошо. Большой сайт? - Ну, используйте поправочный коэффициент.Среднее количество просканированных страниц - это и есть условный лимит сканирования. Сама по себе цифра особого смысла не имеет - только применительно к объёму сайта. В вашем случае цифра реально великовата. Вы сами отмечаете, что гуглобот будет идти на избранные страницы, так что месяц - это очень сомнительная цифра применительно к обходу всего сайта.Вы знаете лимит, у вас есть данные по целевым страницам и тем, где пасётся бот. Ищите способы изменить акценты - вот и всё.
В Search Console - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться.Это, понятно, условная градация, но работать с ней уже можно.Для кучи можно ещё с цифрами из логов поиграть по отдельным гуглоботам (для смартфонов, ПК, если интересно - для картинок и т.п.). Ну, и там же можно заценить, где бот пасётся охотнее. Интересные факты можно обнаружить.
Коммерческие запросы далеко не всегда ГЗ.
Избыток эмодзи в сниппете может быть расценен как спам. Вариантов тут два: могут чутка пессимизировать, но с большей степенью вероятности просто эмодзи срежут и не покажут.Хорошая практика - анализировать выдачу в этом отношении, и отбирать те эмодзи, которые ПС способны и согласны выводить.
В Яндексе я бы ещё учитывал фактор перетасовывания выдачи по каким-то мутным критериям. Ну просто взял и скинул все топовые сайты, державшие выдачу долгое время - а на их место точно таких же (если не хуже) из второй-третьей десятки. И вот ломай башку, что там с факторами ранжирования и почему слетело - а причина в банальном ПМС у Яндекса и стремлении бороться с застойностью выдачи.
Как минимум, должно влиять на ctr - перебор с ним может сказаться и негативно, и в плюс. Вопрос, наверное, в объёмах бототрафа, и системы тут нету.
Вот и было бы интересно посмотреть на результаты практического применения такой тактики в плане конверсий и ранжирования. Чем мельче бизнес - тем менее продуктивно кого-то отшивать по общим признакам.Банально: симки Мегафона жёстко привязаны к региону, где они были куплены. А в какой-то момент они все были привязаны к Москве. То есть "Метрополитен бранч" может тащиться за человеком из региона десяток лет и больше. А мы его - под нож, потому что сеточка - сильно спамная. А ведь это может быть, скажем, оптовый покупатель на миллионы рублей. С этим - как?
В гугле примерно та же история, хотя и причины деградации, вероятно, отличаются. Им, похоже, просто не хватает уже мощностей дата-центров для обработки поступающих данных, и они перераспределили их по регионам. Акцент - на США, потом ЕС, потом - страны третьего мира, включая РФ.
Да они даже на конкретных данных не могут сообразить, что я, к примеру, сеошу, и мой поиск и интересы не связаны с моими личными интересами никак. Какие там мысли, если я тупо закрываю рекламу и указываю причину, почему мне это показывать не надо - и пофиг же.Лет 5 назад интеллект ПС определяли как интеллект 5-7 летнего ребенка. Как по мне - с того времени он только деградировал по объективным причинам, и дальнейшего роста ожидать пока не приходится.