Какой смысл вClean-param для robots.txt

Arthorius
На сайте с 19.04.2016
Offline
84
1893

Всем привет!

Просветите пожалуста в таком вопросе, зачем нужна Clean-param в robots.txt , если get-парметры можно закрыть директивой Disallow?

И ещё вопрос,зачем в robots.txt блок User-agent: Yandex, если блок User-agent: * обращается ко всем ПС? Зачем для Яндекса отдельно всё повторять?

NellSEO
На сайте с 03.06.2017
Offline
12
#1
Arthorius:

Просветите пожалуста в таком вопросе, зачем нужна Clean-param в robots.txt , если get-парметры можно закрыть директивой Disallow?

Смысл в том, что нельзя предсказать и закрыть все возможные варианты GET-ов через Disallow, т.к. юзер или бот может подставить произвольные --> они попадут в индекс. Clean-param обрезает все, сделать это более тонко и правильно. Ее синтаксис расчитан именно на работу с get-параметрами, в то время как disallow расчитан на работу с пагинацией.

Arthorius:
И ещё вопрос,зачем в robots.txt блок User-agent: Yandex, если блок User-agent: * обращается ко всем ПС? Зачем для Яндекса отдельно всё повторять?

Некоторые директивы доступны только в Яндексе, некоторые он не читает. Тем не менее, в 95% случаем хватает

User-agent: *

Doroshev
На сайте с 21.01.2010
Offline
178
#2
NellSEO:
Смысл в том, что нельзя предсказать и закрыть все возможные варианты GET-ов через Disallow, т.к. юзер или бот может подставить произвольные --> они попадут в индекс. Clean-param обрезает все, сделать это более тонко и правильно. Ее синтаксис расчитан именно на работу с get-параметрами, в то время как disallow расчитан на работу с пагинацией.

Некоторые директивы доступны только в Яндексе, некоторые он не читает. Тем не менее, в 95% случаем хватает
User-agent: *

1. Что за бред, Disallow расчитан на работу с пагинацией? Пагинацию не закрывают для индексации. Максимум - мета-тег robots="yandex" moidex, follow.

2. Все get можно закрыть чаще всего так: Disallow: /*?*.

богоносец
На сайте с 30.01.2007
Offline
753
#3
Doroshev:
Пагинацию не закрывают для индексации.

Не ругайтесь, допустимы разные каноны и повадки ваших собратьев.

( с мета-роботс-ноиндекс / рел=каноникал возникает проблема необходимости скачивания страницы ботом — для выяснения, что не надо индексировать / показывать сцылку на неё )

NellSEO
На сайте с 03.06.2017
Offline
12
#4
Doroshev:
1. Что за бред, Disallow расчитан на работу с пагинацией? Пагинацию не закрывают для индексации. Максимум - мета-тег robots="yandex" moidex, follow.
2. Все get можно закрыть чаще всего так: Disallow: /*?*.

Пагинацию часто закрывают от индексации, т.к. зачастую она не несет никакой ценности, лишь плодит дубли. В частности, так делают ребята в курсе fseo (смотрел, грешен).

В некоторых случаях эффективнее не отрубать все через Disallow: /*?*, а проработать конкретные запросы, тем более, что у части сайтов до сих пор вместо чпу-урл адреса состоят как раз из get-ов.

Arthorius
На сайте с 19.04.2016
Offline
84
#5

Спасибо, вроде прояснилось))) Буду в своих роботсах использовать clean-param

Arthorius
На сайте с 19.04.2016
Offline
84
#6

К стати, а пример корректной директивы clean-param можете дать?

NellSEO
На сайте с 03.06.2017
Offline
12
#7
пример корректной директивы clean-param можете дать?

Дайте пару адресов страниц с лишними get-ами.

Arthorius
На сайте с 19.04.2016
Offline
84
#8

ну так сразу у меня нет))) поищу...

Y
На сайте с 26.04.2012
Offline
77
#9
NellSEO:
Пагинацию часто закрывают от индексации, т.к. зачастую она не несет никакой ценности, лишь плодит дубли. В частности, так делают ребята в курсе fseo (смотрел, грешен).

аргументировать свое мнение тем, что так было сказано в каком-то курсе каких-то петушков такое себе.

по теме:

с помощью clean-param убирают фильтрации в выборках например или какие-то партнерские метки, если не всегда utm используется, да впринципе полезная директива, очень не хватает ее в гугле (там как гребаная макака вручную надо ползать по вебмастеру и на каждом, с.ка, поддомене выпиливать эти параметры ручками)

Не беру и не ищу проекты.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий