Ура! Яндекс ввел Clean-param в Robots.txt!

Владимир
На сайте с 10.07.2006
Offline
154
1582

Сегодня наткнулся на информацию о введении Яндексом директивы Clean-param в robots.txt, которая напрашивалась уже лет сто с момента начала активного использования сессий.

Если адреса страниц вашего сайта содержат динамические параметры которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы 'Clean-param'. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.

Внимание вопрос!

Может быть кто-то знает, есть ли подобные директивы от Гугл и др.? Ведь это так просто и так нужно! :drink:

D
На сайте с 29.01.2009
Offline
42
#1

Для интернет-магазинов очень актуально.

сегодня стал еще беднее
_
На сайте с 24.07.2002
Offline
299
_Ad
#2

и для форумов..

S7
На сайте с 21.06.2008
Offline
71
#3

Интересная штучка

IF
На сайте с 12.09.2008
Offline
150
#4

Очень хорошая штука. Пригодится. :)

Кстати, а давно ли ввели?

Про аналоги в других поисковиках не слышал..

на прокси зарабатываю тут: https://goo.su/ZhNUUnG
K
На сайте с 31.01.2001
Offline
737
#5
Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
SeoTron
На сайте с 19.11.2006
Offline
54
#6

Здесь google рекомендует использовать символы шаблонов.

Владимир
На сайте с 10.07.2006
Offline
154
#7

К сожалению, с помошью шаблонов Гугла нельзя добиться того, что можно с помощью Clean-param. С их помощью можно запретить адреса, содержащие, например, сессии, а требуется чтобы робот просто отбрасывал SessionID. 😒

[Удален]
#8

а что это вообще за шняга?

S3
На сайте с 07.03.2007
Offline
24
#9
romanavr:
а что это вообще за шняга?

http://webmaster.ya.ru/?ncrnd=2376

тут всё подробно расписано

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий