Закрытие в robots

D
На сайте с 22.02.2011
Offline
1
300

Есть сайт came-ural.ru, хочу что бы страницы типа /catalog/elem/?ELEMENT_ID=349 не индексировались, в целях избежания дублирования контента, если я в robots.txt пропишу Disallow: /?ELEMENT, такие страницу не будут индексироваться?

Я стою мало, но хоть чего то стою
Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#1

А вы проверьте - http://webmaster.yandex.ru/robots.xml

Для борьбы с дубликатами есть классная вешь - rel='canonical'

D
На сайте с 22.02.2011
Offline
1
#2
Алексей Барыкин:
Для борьбы с дубликатами есть классная вешь - rel='canonical'

Для яши тоже действует?

Light Phantom
На сайте с 17.03.2007
Offline
188
#3
Dager:
Disallow: /?ELEMENT, такие страницу не будут индексироваться?

индексироваться не будут страницы, начинающиеся с ?ELEMENT_ID=349, т. е. /catalog/elem/?ELEMENT_ID=349 будет по-прежнему индексироваться

Замените слэш (/) на звездочку (*) и тогда эта страница, как и любые другие страницы, содержащие ?ELEMENT, индексироваться не будут.

То есть меняем Disallow: /?ELEMENT на Disallow: *?ELEMENT

D
На сайте с 22.02.2011
Offline
1
#4
Light Phantom:
индексироваться не будут страницы, начинающиеся с ?ELEMENT_ID=349, т. е. /catalog/elem/?ELEMENT_ID=349 будет по-прежнему индексироваться
Замените слэш (/) на звездочку (*) и тогда эта страница, как и любые другие страницы, содержащие ?ELEMENT, индексироваться не будут.
То есть меняем Disallow: /?ELEMENT на Disallow: *?ELEMENT

Спасибо за исчерпывающий ответ!

P
На сайте с 24.02.2011
Offline
1
#5

Т.е просто заключить в robots.txt, пс google попреженему будет учитывать все страницы и отдавать им определеный вес. Есть более осмысленые способы , но в данном случаи можно сделать с панели Вебмастера, вырубить там с индекса все ненужные страницы с учетом того, что станицы заранее будут закрыты в роботе

p1rotex добавил 25.02.2011 в 15:33

За счет веса переборщил:) остальное претендует на истину

Где купить?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий