Запрет сортировки в robots.txt ?

zaxavar
На сайте с 08.10.2012
Offline
175
268

Здравствуйте!

У меня на сайте есть сортировка результатов.

В урле после нажатия на сортировку добавляется такое action?limit=5&orderby=alpha&cc=p&start=135

Такой директивы в robots будет достаточно?

Disallow: *orderby*


ВМЕСТО или ВМЕСТЕ с ADSENE - ADSTERRA - https://publishers.adsterra.com/referral/wf8uqXSYuu Раcскажу, подскажу.
Вячеслав Калачёв
На сайте с 05.06.2021
Offline
17
#1

https://webmaster.yandex.ru/site/tools/robotstxt/

Добавляешь свой роботс, затем проверяешь доступность каждого урла.

Vladimir SEO
На сайте с 19.10.2011
Offline
1840
#2
гугл будет индексить( даже не смотря на роботс) если в коде есть ссылки на сортировку и если на страницы сортировки есть траф
Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
Виктор Петров
На сайте с 05.01.2020
Offline
240
#3
zaxavar :
Такой директивы в robots будет достаточно?

Я бы использовал 

Disallow: *orderby=*

Ну, и проверить несколько урлов в инструментах проверки robots в панелях вебмастеров, естественно

zaxavar
На сайте с 08.10.2012
Offline
175
#4

Хорошо, а страницы пагинации стоит закрывать в robots?

Disallow: *&start=*

Титлы то у них одинаковые.

W1
На сайте с 22.01.2021
Offline
306
#5
zaxavar #:
а страницы пагинации стоит закрывать в robots?

Это вопрос дискуссионный.  И стоит ли закрывать, и в роботсе ли это делать.

Мой форум - https://webinfo.guru –Там я всегда на связи
Виктор Петров
На сайте с 05.01.2020
Offline
240
#6
zaxavar #:
Хорошо, а страницы пагинации стоит закрывать в robots?

Как по мне - пагинация в индексе не нужна. Если на товарных карточках внутренних ссылок хватает - поисковик их и так найдёт, а для юзверя надо сделать нормальный хаб, с подкатегориями, тегами, фильтрациями, сортировками и маркетинговыми предложениями. Ну, какой дурак товар отбирать будет листая сотню страниц, ориентируясь на картинку, название и цену? При этом тот же Яндекс вполне может переклеить запрос на страницу пагинации (например, если ему текст на основной странице покажется спамным).
Если не закрывать - надо тайтлы уникализировать хоть как-то (обычно просто дописывают шаблоном нечто типа "стр.22"), и каноническую страницу указывать.
Вариант - прикрутить подгрузку товаров на AJAX.

vold57
На сайте с 01.10.2007
Offline
261
#7
Как минимум мета роботс отличается от файла robots.txt тем, что в нем можно не запрещать переход по ссылкам.
Аудит сайтов - главная часть это тщательная ручная работа, а не отчеты сервисов и программ (https://vold57.com/audit). Продвижение сайтов (https://vold57.com/seo)
Жендосье
На сайте с 08.12.2013
Offline
67
#8

В Google используй Параметры URL, указав, что это адреса сортировки.

В Яндексе для этого есть Clean-param

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий