Запрет robots.txt

S2
На сайте с 12.08.2014
Offline
0
782

Привет всем, если я не туда написал сразу прошу извинения. Помогите пожалуйста с robots.txt. Есть блог (только что созданный) на котором страница доступна по двум адресам, скажите пожалуйста как правильно прописать запрет.

Страница доступна по:

1) .html#more-170

2. .html

Я так полагаю, что в первом варианте нужно выставить запрет. Вот так вот можно - Disallow: /#more Или же как-то по другому закрывается?

[Удален]
#1

Не совсем: Disallow: *#more*

На всякий случай проверьте через http://webmaster.yandex.ru/robots.xml

Не уверен, что такие ссылки нужно закрывать, так как они якорные и не плодят дубли.

Casper88
На сайте с 25.06.2014
Offline
8
#2

Плюсую. Якорные ссылки можно не закрывать.

Внимание! Видео курсы по SEO (http://seo-kursi.com) для любого уровня, обучение SEO теперь доступно каждому!
K
На сайте с 30.07.2008
Offline
135
#3

"можно не закрывать"...

Просто: то, что в браузерной строке после # - не индексируется. Всё.

Закрывать это от индексации - всё равно, что слепому глаза черной лентой завязывать, чтоб дорогу не подсмотрел.

Более того - в самом robots.txt то, что после # - является комментарием.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий