ПОмощь с robots.txt

[Удален]
665

Доброго времени суток. Я столкнулся с проблемой индексации нежелаемых страниц, а точней RSS фидов. Хочу спросить у профессионалов, стоит ли закрывать их от индексации что бы предотвратить дублирование контента? Если да, то подскажите пожалуйста как. Заранее благодарен.

Пример УРЛов которые попали в индекс.

http://mysite.com/component/jomcomment/feed/39/com_content.html

http://mysite.com/category1/category2.feed?type=rss

nik_kent
На сайте с 05.02.2008
Offline
193
#1
С уважением, Николай.
[Удален]
#2

Поправьте меня пожалуйста если не так составил

Disallow: /component/jomcomment/

Disallow:

Clean-param: type/

nik_kent
На сайте с 05.02.2008
Offline
193
#3

Я бы сделал так:

User-Agent: *
Disallow: /*feed

В вашем варианте возможно закроются и нужные страницы и для страниц такого типа http://mysite.com/category1/category2.feed?type=rss он тоже не подходит.

А проверкой роботса вы так и не воспользовались:

4: Clean-param: type/: Некорректный формат директивы Clean-param
seo3_Kul
На сайте с 25.10.2010
Offline
149
#4

Проверка эта не работает

сам недавно экспериментировал, дак судя по проверке она все разрешает

В роботе сайта забито:

User-Agent: Yandex

Disallow:

Disallow: /folder/

Но при проверке документа site.ru/folder/1.html - статус разрешено...

Я так и не понял как правильно закрыть, например, профили пользователей на форуме

http://site.ru/forum/profile.php?mode=viewprofile&u=1&sid=

User-Agent: Yandex

Disallow:

Disallow: /forum/profile.php

так закроется?

Еще можно ли закрыть от индексации все документы в папке site.ru/papka/, а индексации самой страницы site.ru/papka/ разрешить?

помогите разобраться

Продвижение и раскрутка сайтов!
nik_kent
На сайте с 05.02.2008
Offline
193
#5

seo3_Kul, тут все написано, и ответ на ваш вопрос есть:

seo3_Kul:
можно ли закрыть от индексации все документы в папке site.ru/papka/, а индексации самой страницы site.ru/papka/ разрешить?

Использование спецсимволов "*" и "$".

Проверка нормально работает. Видимо дело в лыжах.

kimberlit
На сайте с 13.03.2007
Offline
370
#6
seo3_Kul:
Проверка эта не работает
сам недавно экспериментировал, дак судя по проверке она все разрешает

В роботе сайта забито:
User-Agent: Yandex
Disallow:
Disallow: /folder/

Что за нелепая конструкция такая? Всё правильно проверка показывает тебе. У тебя всё разрешено.

nik_kent
На сайте с 05.02.2008
Offline
193
#7
kimberlit:
Что за нелепая конструкция такая? Всё правильно проверка показывает тебе. У тебя всё разрешено.

Вот-вот. Стоит убрать бессмысленную строчку "Disallow:" и проверка показывает, что site.ru/folder/1.html запрещено.

seo3_Kul
На сайте с 25.10.2010
Offline
149
#8

nik_kent, Огромное Спасибо! Открыли мне истину...

думал, что следующие строчки будут иметь выше приоритет...

С символами "*" и "$" не совсем понял, но теперь тогда можно будет экспериментировать с проверкой робота в вебмастере.

nik_kent
На сайте с 05.02.2008
Offline
193
#9

Так там же в помощи тоже про это написано :)

Если для данной страницы сайта подходит несколько директив, то выбирается первая в порядке появления в выбранном User-agent блоке.

Как раз ваш случай.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий