Роботс.тхт, пара вопросов.

S6
На сайте с 17.07.2011
Offline
0
412

Всем привет! Составил роботс, хочу убедиться, что правильно, есть некоторые нюансы - хочу чтобы индексировались только данные страницы, кроме главной, и страницы, адрес которых - продолжение данных адресов, и только главная. Никакие другие страницы индексироваться не должны (типа /tag, /card и так далее).

User-agent: Yandex

Allow: /$

Allow: /novosti/

Allow: /poleznoe/

Allow: /kontakty/

Allow: /o-magazine/

Allow: /postelnoe-belio/

Allow: /kak-kupit/

Allow: /optovikam/

Allow: /prais-list/

Allow: /oplata-i-dostavka/

Allow: /garantii/

Allow: /katalog/

Disallow: /

Если неправильно, то как написать роботс, который удовлетворяет такому требованию?

ZeeRaN
На сайте с 16.05.2011
Offline
67
#1

Лучше запретите индексацию того, что индексироваться не должно, вот и все.

Как у вас будет индексироваться остальное, если вы написали "Disallow: /"? Робот дальше и не пройдет. Если только сразу на внутренние сразу будет заходить со внешних ссылок. Но имхо, это кривой какой то роботс.

SEO-услуги, качественно и недорого (/ru/forum/700348) Продвижение сайтов, составление СЯ (/ru/forum/comment/10999957), мелкие консультации - ICQ 621086068
S6
На сайте с 17.07.2011
Offline
0
#2

Ну, например, я не могу отследить (да и не хочу) страницы, которые не должны индексироваться, зато знаю список страниц, которые индексироваться должны. Дак вот имея этот список - как составить роботс?

[Удален]
#3

http://robotstxt.org.ru/

Disallow: /

Запрещает вообще индексировать весь сайт.

S6
На сайте с 17.07.2011
Offline
0
#4

Яндекс говорит:

Файл роботом читается сверху вниз. Или я чего-то недопонимаю, либо вы.

[Удален]
#5

В Вашем случае удобно организовать префикс или постфикс для ссылок, а затем использовать "*", в качестве шаблонизатора.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий