Правила написания атрибутов в robots.txt

12
Jason_B
На сайте с 31.03.2009
Offline
35
#11
BrokenBrake:
Кстати, что за говнодвижок? Разработчикам этой чудо-CMS нужно руки оторвать и засунуть в то место, которым они думают.

CMS серьезная, единственная прореха в том, что программист, который писал его, далековат от оптимизации...

Bdiang:
да и Гугл Clean-param не понимает

Гугл проиндексировал 50% контента на сайте, необходима индексация Яндексом.

Bdiang:
бывают ситуации когда оптимизатор не имеет возможность что либо менять в движке

Да действительно, нет возможности изменить что- либо в CMS.

Беобахтер:
директива Clean-param Вам в помощь.

User-agent: Yandex

Disallow:

Clean-param: ref /ShowArticle.aspx?ID

Прописав этот атрибут, робот Яндекса поймет, что индексировать нужно только адреса с таким параметром?

Bdiang:
Поскольку в обоих вариантах присутствует параметр AspxAutoDetectCookieSupport, то проще всего так
Disallow: *AspxAutoDetectCookieSupport*

Или использовать этот параметр?

Bdiang
На сайте с 19.07.2006
Offline
102
#12
Jason_B:
Disallow: *AspxAutoDetectCookieSupport*

В данном конкретном случае, это поможет не индексировать Яндексом и Гуглом страницы, о которых Вы писали. Но учтите, чт оиз индекса выпадут также и все другие страницы, у которых есть параметр AspxAutoDetectCookieSupport.

Jason_B:
Clean-param: ref /ShowArticle.aspx?ID
Прописав этот атрибут, робот Яндекса поймет, что индексировать нужно только адреса с таким параметром?

Вы неправильно использовали формат директивы Clean-param.

Вот так будет правильно:

Clean-param: AspxAutoDetectCookieSupport /ShowArticle.aspx

Это укажет, что страницы с параметром AspxAutoDetectCookieSupport в индексе не нужны.

Почитайте про формат директивы здесь

Jason_B
На сайте с 31.03.2009
Offline
35
#13

Всем спасибо за помощь :)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий