И снова об индексации большого раздела сайта (много букв)

123 4
D
На сайте с 29.10.2018
Offline
58
#11
SilverMaster #:

Да вообще, было бы интересно послушать хоть кого, кто смог быстро загнать в индекс хоть что-то более менее отличающееся от 1000 страниц хотя бы :)

Норм всё индексириуется, без всяких фокусов и покупных ссылок. Пусть не миллионы, но пачки по 10-30т. аж бегом.индекс
SilverMaster
На сайте с 08.10.2003
Offline
228
#12
Denechka #:
Норм всё индексириуется, без всяких фокусов и покупных ссылок. Пусть не миллионы, но пачки по 10-30т. аж бегом.

У вас так новый контент заходит? Какой язык? У нас на английском новая ветка сайта ни в какую....

Какая то мистика

Из детских комшаров: "А вдруг ночью придет страшный робот!" Из взрослых: "И криво проиндексирует сайт". Не всякий гик добежит до середины поисковой страницы гугла
Vladimir SEO
На сайте с 19.10.2011
Offline
1460
#13
SilverMaster #:
У вас так новый контент заходит? Какой язык? У нас на английском новая ветка сайта ни в какую....
у меня ру, и два сайта остановились в индексе и стоят уже два месяца. Сейчас ставлю эксперименты с ссылочным . Контент синонимайзер
ᐈ Накрутка ПФ в Яндексе - 200р за 1 запрос! Бесплатный Тест! https://t.me/Enot2292 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
Виктор Петров
На сайте с 05.01.2020
Offline
226
#14

Логи анализировали? Я бы с этого и начинал, если речь о гуглоботе.
Если он упёрто и упорото что-то не хочет сканировать и индексировать - причины обычно либо в техничке, либо в низком рейтинге сайта, либо, скажем, ваш неиндексируемый раздел он счёл неуникальным в рамках сайта.
Проверяйте также лимит сканирования. Вполне вероятно, что значительную его часть он тратит на какую-нибудь левую ерунду (скажем, обход давно мёртвых линков по сайту, или начинает тупить в папке шаблона и кэшей.
Или вот, для примера, просто кольцевые редиректы с пары разделов сняли - много барахла из "найдено, не сканировано" пошло в индекс.


SEO-аудиты для интернет-магазинов ( https://textarget.ru/seo-audit-sajta/ )
D
На сайте с 29.10.2018
Offline
58
#15
SilverMaster #:

У вас так новый контент заходит? Какой язык? У нас на английском новая ветка сайта ни в какую....

Какая то мистика

index

Язык, в основном английский с вкраплениями других языков.

Ни одной ссылки не было куплено принципиально (это всё равно, что проституток покупать - быстро, но не интересно). Все ссылки, что есть естественные (стало быть по любви поставленные).

D
На сайте с 29.10.2018
Offline
58
#16
Виктор Петров #:
Проверяйте также лимит сканирования.
Каким образом Вы предлагаете его проверить?
Виктор Петров
На сайте с 05.01.2020
Offline
226
#17
Denechka #:
Каким образом Вы предлагаете его проверить?

В Search Console  - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться.
Это, понятно, условная градация, но работать с ней уже можно.
Для кучи можно ещё с цифрами из логов поиграть по отдельным гуглоботам (для смартфонов, ПК, если интересно - для картинок и т.п.). Ну, и там же можно заценить, где бот пасётся охотнее. Интересные факты можно обнаружить.

D
На сайте с 29.10.2018
Offline
58
#18
Виктор Петров #:

В Search Console  - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться.
Это, понятно, условная градация, но работать с ней уже можно.
Для кучи можно ещё с цифрами из логов поиграть по отдельным гуглоботам (для смартфонов, ПК, если интересно - для картинок и т.п.). Ну, и там же можно заценить, где бот пасётся охотнее. Интересные факты можно обнаружить.

Не совсем понятно. Давайте на конкретном живом примере. Должно быть в индексе миллион страниц. Среднее количество просканированых страниц за день 33282. По Вашей формуле (как Вы её вывели непонятно, эмпирически?) 1000000/ 33282 = 30,04627. И что ? Кричать караул и бегать кругами желания нет. Помоему это означает лишь то, что краулеру нужен месяц для того что-бы переобойти сайт (и то, с условием того, что он каждый раз будет заходить на разные страницы, обычно бывает по другому, на одни страницы он заходит чаще, на другие - реже).

Повторю вопрос - Каким образом Вы предлагаете проверить лимит сканирования? Ведь для того, что-бы его проверить, как минимум его нужно сначала узнать. Каким образом Вы предлагаете узнать лимит сканирования? сканирование

SilverMaster
На сайте с 08.10.2003
Offline
228
#19
Виктор Петров #:

Логи анализировали? Я бы с этого и начинал, если речь о гуглоботе.
Если он упёрто и упорото что-то не хочет сканировать и индексировать - причины обычно либо в техничке, либо в низком рейтинге сайта, либо, скажем, ваш неиндексируемый раздел он счёл неуникальным в рамках сайта.
Проверяйте также лимит сканирования. Вполне вероятно, что значительную его часть он тратит на какую-нибудь левую ерунду (скажем, обход давно мёртвых линков по сайту, или начинает тупить в папке шаблона и кэшей.
Или вот, для примера, просто кольцевые редиректы с пары разделов сняли - много барахла из "найдено, не сканировано" пошло в индекс.


Спасибо - с логов мы начинали, логи наше все :) По логам все чисто.

Обратили внимание, как сделаны каталоги у конкурентов - решили немного наш сайт подправить, сделали. Пока дошли изменения до публикации - гуглбот резко повысил бюджет сканирования и выкинул кое-что в индекс.

То есть можно сказать, что к позитивным сдвигам мы никакого отношения не имеем.

Виктор Петров
На сайте с 05.01.2020
Offline
226
#20
Denechka #:
Повторю вопрос - Каким образом Вы предлагаете проверить лимит сканирования? Ведь для того, что-бы его проверить, как минимум его нужно сначала узнать. Каким образом Вы предлагаете узнать лимит сканирования?

Точных цифр никто не даст. Да их и нет, в этой сфере они все динамические, поэтому надо отталкиваться от медианных данных. И в этом плане градация 3/10 работает хорошо. Большой сайт? - Ну, используйте поправочный коэффициент.
Среднее количество просканированных страниц - это и есть условный лимит сканирования. Сама по себе цифра особого смысла не имеет - только применительно к объёму сайта. В вашем случае цифра реально великовата. Вы сами отмечаете, что гуглобот будет идти на избранные страницы, так что месяц - это очень сомнительная цифра применительно к обходу всего сайта.
Вы знаете лимит, у вас есть данные по целевым страницам и тем, где пасётся бот. Ищите способы изменить акценты - вот и всё. 

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий