Yandex обходит страницы запрещенные к индексации

12
R
На сайте с 04.12.2016
Offline
60
1303

Добрый день.

Интернет магазин 20.000+ товаров + сортировки по цвету, модели и т.д.

Страницы пагинации закрыты для Яндекса <meta name="yandex" content="noindex, follow">

(Для Google настроены next/prev)

В статистике обхода вижу что робот Яндекса обходит уйму различных страниц пагинации, помечает их как закрытые для индексации, НО действительно важные страницы практически не трогает...

Т.е. многие первые страницы категорий вообще не посещались роботом, а вот страницы пагинаций этих категорий обходятся чуть не каждый день.

Вот думаю может все же поставить каноникал на первую для страниц пагинации и черт с ними с рекомендациями Яндекса и Гугла...

Y
На сайте с 26.04.2012
Offline
77
#1
Redgektor:
Добрый день.
Интернет магазин 20.000+ товаров + сортировки по цвету, модели и т.д.
Страницы пагинации закрыты для Яндекса <meta name="yandex" content="noindex, follow">
(Для Google настроены next/prev)

В статистике обхода вижу что робот Яндекса обходит уйму различных страниц пагинации, помечает их как закрытые для индексации, НО действительно важные страницы практически не трогает...

потому что краулинговый бюджет. Если вы используете мета роботс, то чтобы узнать что страницу индексировать не надо, ее надо сначала скачать.

сайтмап с priority теоретически может помочь (нет)

но с бОльшей вероятностью поможет if-modified.

Не беру и не ищу проекты.
R
На сайте с 04.12.2016
Offline
60
#2

Большое спасибо за идею.

Попробую реализовать.

Может у кого нибудь есть опыт (пример) использования Last-Modified / If-Modified-Since на коммерческих сайтах?

donc
На сайте с 16.01.2007
Offline
663
#3
Redgektor:
follow

И правильно делает - он же ссылки считывает с них, вы ему это разрешили.

Вот и ходит

Осуждаем применение нейросетей в SEO и не только ( https://webimho.ru/forum/148/ ) :) Продвижение сайтов от 25 000 в мес, прозрачно, надежно ( /ru/forum/818412 ), но не быстро, отзывы ( http://webimho.ru/topic/3225/ )
Joker-jar
На сайте с 26.08.2010
Offline
154
#4

Робот регулярно проверяет эти страницы, ведь в любой момент вы можете захотеть убрать тег noindex. Если запретить индексацию в robots.txt, то, пока есть запрещающая запись, робот (в теории) не должен их шерстить.

богоносец
На сайте с 30.01.2007
Offline
753
#5
Redgektor:
думаю может все же поставить каноникал на первую для страниц пагинации и черт с ними с рекомендациями Яндекса и Гугла...

И чтобы заметить этот каноникал, боту придётся эту страницу скачать.

Вот сколько страниц бот скачивает за одно обращение? И какой % их оказываются левыми?

R
На сайте с 04.12.2016
Offline
60
#7

Согласно статистике обхода Yandex в день посещает порядка 8.000 страниц.

Из них действительно необходимых в индексе около 300.

(Т.е. страниц url которых не содержат параметры закрытые к индексации/ исключенные clean-param/ на которые настроен canonical.)

Chukcha.

Поясните, что именно вы хотели сказать своим сообщением.

_
На сайте с 24.03.2008
Offline
381
#8

Что мешает-то в robot.txt всё ненужное запихнуть ?

Чего этот кактус жрать продолжать :) ?

ЗЫ. Или речь о том, что у вас 100500 страниц "второго уровня" и до "третьего" робот просто не доходит ?

Тогда сайтмап...

C
На сайте с 04.02.2005
Offline
277
#9
Redgektor:
что именно вы хотели сказать своим сообщением.

Как часто ходЮт, и сколько за раз :)

R
На сайте с 04.12.2016
Offline
60
#10

По поводу if-modified

Используют ли сейчас поисковики if-modified-since?

Правда вопросов там еще очень много, на несколько тем сайта наберется))

---------- Добавлено 28.04.2017 в 17:35 ----------

_SP_:
Что мешает-то в robot.txt всё ненужное запихнуть ?
Чего этот кактус жрать продолжать :) ?

На все лишние страницы был настроен каноникал или clean-param.

Раньше думал этого будет достаточно, но робот все равно регулярно обходит эти страницы...

Сейчас думаю, что закрыть их через robots будет правильнее и позволит эффективней использовать краулинговый бюджет.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий