Закрыть от индексации страницы

Agador
На сайте с 16.02.2005
Offline
87
1451

Необходимо закрыть страницы "print" от индексации.

Условия:

страниц несколько тысяч

адреса вида:

http://www.url.com/catalog/index.php?_переменные_&print=Y

Т.е. вот это "&print=Y" в урле и есть признак такой страницы.

Есть ли соотв. синтаксис для robots.txt?

или надо писать запрещающий мета-тег?

А может можно инструкцию в .htaccess прописать?

p.s. есть специалисты по битриксу? - а то я ноги уже поломал об него :(

Marshalkin.ru (http://www.marshalkin.ru) - Все будёт тип-top F5 - моя любимая кнопка!
Shtogrin
На сайте с 02.11.2006
Offline
95
#1

Саму ссылку с "&print=Y" в noindex / nofollow или через javascript

в htaccess - можно по USER-AGENT запрещать

в robots.txt - только для google можно писать "*", остальные не понимают

User-agent: googlebot

Disallow: *&print=Y

мета тег - минус в том что робот должен забрать страницу и потом только проигнорировать

www.shtogrin.com (http://www.shtogrin.com/). Канцтовары (http://www.invit.com.ua/). 1С Бухгалтерия (http://account.kiev.ua/).
Shtogrin
На сайте с 02.11.2006
Offline
95
#2

снова дубль

Kolyaj
На сайте с 28.03.2006
Offline
69
#3

А еще лучше сверстать шаблон так, чтобы версия для печати не потребовалась. Отдельно css-стили для экрана, отдельно для печати.

Agador
На сайте с 16.02.2005
Offline
87
#4
Shtogrin:
Саму ссылку с "&print=Y" в noindex / nofollow или через javascript

Дело в том, что страницы уже в индексе - закрыв ссылку на них из индекса удалить их не получится.

>>в htaccess - можно по USER-AGENT запрещать

Я всегда думал, что обращения к юзер-агентам это чуть ли не клоакинг :)

>>в robots.txt - только для google можно писать "*", остальные не понимают

Спасибо, но меня интересует главным образом Яндекс.

>>мета тег - минус в том что робот должен забрать страницу и потом только проигнорировать

Понимаю :(

По поводу спец вёрстки - сайт уже сделан (на Битриксе) и чтото там координально менять - большая проблема :(

Shtogrin
На сайте с 02.11.2006
Offline
95
#5
Agador:

>>в htaccess - можно по USER-AGENT запрещать
Я всегда думал, что обращения к юзер-агентам это чуть ли не клоакинг :)

Вы ж запрещаете эти страницы, а не отдаете разный контент. Никакого клоакинга в этом нет.

Закройте ссылки чтобы Яндекс не брал новые, по USER-AGENT возвращайте роботам 404 (или редирект на основную страницу)

Agador
На сайте с 16.02.2005
Offline
87
#6
Shtogrin:
Вы ж запрещаете эти страницы, а не отдаете разный контент. Никакого клоакинга в этом нет.
Закройте ссылки чтобы Яндекс не брал новые, по USER-AGENT возвращайте роботам 404 (или редирект на основную страницу)

А в хтакцесс я смогу использовать маску для таких урлов?

Вы синтаксис не подскажите?

[Удален]
#7
Agador:
А в хтакцесс я смогу использовать маску для таких урлов?
Вы синтаксис не подскажите?

Что-то вроде:

RewriteRule ^print/([0-9]+)/$ catalog/index.php?_переменные_&print=$1

Извините, неправильно понял

Shtogrin
На сайте с 02.11.2006
Offline
95
#8

Что-то вроде этого

RewriteCond %{HTTP_USER_AGENT} !^yandex.* [NC,OR]

RewriteCond %{HTTP_USER_AGENT} !^googlebot.* [NC,OR]

RewriteCond %{QUERY_STRING} print=Y

RewriteRule - здесь или 404 или редирект

Shtogrin
На сайте с 02.11.2006
Offline
95
#9

shamuey, при чем здесь это?

[Удален]
#10
Shtogrin:
shamuey, при чем здесь это?

Протупил, исправил пост.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий