Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
Denechka #:
Повторю вопрос - Каким образом Вы предлагаете проверить лимит сканирования? Ведь для того, что-бы его проверить, как минимум его нужно сначала узнать. Каким образом Вы предлагаете узнать лимит сканирования?

Точных цифр никто не даст. Да их и нет, в этой сфере они все динамические, поэтому надо отталкиваться от медианных данных. И в этом плане градация 3/10 работает хорошо. Большой сайт? - Ну, используйте поправочный коэффициент.
Среднее количество просканированных страниц - это и есть условный лимит сканирования. Сама по себе цифра особого смысла не имеет - только применительно к объёму сайта. В вашем случае цифра реально великовата. Вы сами отмечаете, что гуглобот будет идти на избранные страницы, так что месяц - это очень сомнительная цифра применительно к обходу всего сайта.
Вы знаете лимит, у вас есть данные по целевым страницам и тем, где пасётся бот. Ищите способы изменить акценты - вот и всё. 

Denechka #:
Каким образом Вы предлагаете его проверить?

В Search Console  - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться.
Это, понятно, условная градация, но работать с ней уже можно.
Для кучи можно ещё с цифрами из логов поиграть по отдельным гуглоботам (для смартфонов, ПК, если интересно - для картинок и т.п.). Ну, и там же можно заценить, где бот пасётся охотнее. Интересные факты можно обнаружить.

Legioner-24 #:
Это коммерческий запрос, а следовательно ГЗ

Коммерческие запросы далеко не всегда ГЗ. 

krock #:
Правильно ли я понимаю, что спецсимволы в тайтле и дескрипшне поисковик воспринимает как текст? Может ли это как-то сказаться на релевантности этих мета-тэгов запросу и снижении позиций? Особенно если какой-то спецсимвол стоит на первом месте в тайтле?

Избыток эмодзи в сниппете может быть расценен как спам. Вариантов тут два: могут чутка пессимизировать, но с большей степенью вероятности просто эмодзи срежут и не покажут.
Хорошая практика - анализировать выдачу в этом отношении, и отбирать те эмодзи, которые ПС способны и согласны выводить.

Антоний Казанский #:
Здесь вот какой нюанс надо уловить. Что если у конкурентов всё норм, и ты входишь в топ с тем же "нормом", то в общем и в среднем ты будешь после них по факту последовательного присутствия. 

В Яндексе я бы ещё учитывал фактор перетасовывания выдачи по каким-то мутным критериям. Ну просто взял и скинул все топовые сайты, державшие выдачу долгое время - а на их место точно таких же (если не хуже) из второй-третьей десятки. И вот ломай башку, что там с факторами ранжирования и почему слетело - а причина в банальном ПМС у Яндекса и стремлении бороться с застойностью выдачи.

Mik Foxi #:
многие боты после редиректа в яндекс успевали 2 раза назад перейти на сайты с яндекса ))) вроде с сайтами не случилось ничего плохого. Наверное в глазах яндекса это выглядело как гипер заинтересованность юзера в сайте.

Как минимум, должно влиять на ctr - перебор с ним может сказаться и негативно, и в плюс. Вопрос, наверное, в объёмах бототрафа, и системы тут нету.

Да, это лом или ненастроенная безопасность. Для Wordpress  - обычное дело.
Надо хотя бы Wordfence установить и настроить, запретить регистрацию, максимально перекрыть админку (хоть двухфакторной идентификацией), посмотреть на дырки в плагинах  и используемых темах - в общем, комплексно перекрыть возможность для злоумышленников что-то делать в системе.
Vladimir #:
Если брать аналоги, то этот праздношатающийся, по мне можно понизить для ком. сайтов))

Вот и было бы интересно посмотреть на результаты практического применения такой тактики в плане конверсий и ранжирования. Чем мельче бизнес - тем менее продуктивно кого-то отшивать по общим признакам.
Банально: симки Мегафона жёстко привязаны к региону, где они были куплены. А в какой-то момент они все были привязаны к Москве. То есть "Метрополитен бранч" может тащиться за человеком из региона десяток лет и больше. А мы его - под нож, потому что сеточка - сильно спамная. А ведь это может быть, скажем, оптовый покупатель на миллионы рублей. С этим - как? 

LevShliman #:
Ну в вашем случае это Яндекс, он не нейросеть. Он звено , прокладка между человеком и искусственным разумом.

В гугле примерно та же история, хотя и причины деградации, вероятно, отличаются. Им, похоже, просто не хватает уже мощностей дата-центров для обработки поступающих данных, и они перераспределили их по регионам. Акцент - на США, потом ЕС, потом - страны третьего мира, включая РФ. 

LevShliman #:
Неоросети анализируя ваше поведение в интернете и в реале, ваши перемещения, прослушку и покупки, будут знать на перёд, что вы хотите сделать, что купить и напомнят Вам об этом, как раз в тот момент, когда Вы про это будите думать.

Да они даже на конкретных данных не могут сообразить, что я, к примеру, сеошу, и мой поиск и интересы не связаны с моими личными интересами никак. Какие там мысли, если я тупо закрываю рекламу и указываю причину, почему мне это показывать не надо - и пофиг же.
Лет 5 назад интеллект ПС определяли как интеллект 5-7 летнего ребенка. Как по мне - с того времени он только деградировал по объективным причинам, и дальнейшего роста ожидать пока не приходится.

Всего: 4434