Правильно закрыть страницу от индексации

IC
На сайте с 26.05.2013
Offline
15
431

Есть две страницы :

1) http://site.ru/ляляля.html

2) http://site.ru/ляляля

- Они считаются дублями. Если верить вебмастеру Google.

- Сначала хотел решить редиректом (c /ляляля на http://site.ru/ляляля.html) , но не вариант, потому что при переходе на товар этого раздела получается так :

http://site.ru/ляляля.html/тыцтыц.html

- Следующие мысли... закрыть от индексации в robots.txt, но как правильно это сделать, чтобы не закрыть случайно второй нужный урл?

Такая строка подойдет? Не закроет /ляляля.html ?

Disallow: /ляляля

SN
На сайте с 27.02.2010
Offline
83
#1

http://webmaster.yandex.ru/robots.xml

Можете попробовать вот тут проверить, открыт тот или иной урл или закрыт.

Ну и поэксперименитровать с robots.txt

E
На сайте с 20.09.2010
Offline
55
#2
Ingvar Chijek:
Есть две страницы :

1) http://site.ru/ляляля.html
2) http://site.ru/ляляля

- Они считаются дублями. Если верить вебмастеру Google.

- Сначала хотел решить редиректом (c /ляляля на http://site.ru/ляляля.html) , но не вариант, потому что при переходе на товар этого раздела получается так :

http://site.ru/ляляля.html/тыцтыц.html

- Следующие мысли... закрыть от индексации в robots.txt, но как правильно это сделать, чтобы не закрыть случайно второй нужный урл?

Такая строка подойдет? Не закроет /ляляля.html ?

Disallow: /ляляля

Закрыть только http://site.ru/ляляля.html:

Disallow: /ляляля.html$

Закрыть только http://site.ru/ляляля:

Disallow: /ляляля$

BS
На сайте с 03.09.2013
Offline
28
#3
Ingvar Chijek:
закрыть от индексации в robots.txt

ИМХО лучше все-таки прописать правильно редирект.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий