В индекса восновном "страницы для печати"

S
На сайте с 08.02.2007
Offline
185
431

На сайте, на всех его страницах есть кнопка "страницы для печати"

При нажатии на эту кнопку открывается страница с урл: www.site.ru/url/?print_page=yes

Проблема в том, что в индексе теперь восновном находятся страницы для печати, что не очень хорошо, т.к. посетитель, придя на такую страницу, не увидит ничего, кроме текстовой информации

Как сделать так, чтобы страницы для печати на сайте были, но они не индексировались ?

Размещаем статьи на новых посещаемых порталах (/ru/forum/966433)
vlasoff
На сайте с 31.08.2007
Offline
101
#1

1. запретить в robots.txt (подробнее здесь)

2. после можно добавить уже проиндексированные страницы (для печати) здесь

S
На сайте с 08.02.2007
Offline
185
#2
vlasoff:
1. запретить в robots.txt (подробнее здесь)

На этом сайте вода одна. Мне бы конкретики побольше

K
На сайте с 31.01.2001
Offline
737
#3

Да уж, посоветовали сайт с устаревшей информацией.

И второй совет "хорош". Небось на сайте не 5 и не 10 страниц для печати, чтобы их вручную в форму вводить.

Soccerlive, либо используйте *, это понимают Яндекс, Google, Yahoo.

Либо во все страницы для печати втыкайте метатег robots="noindex" .

Кстати, а что вам помешало просто тупо заглянуть в FAQ Яндекса, как рекомендуется в правилах этого раздела?

-----------

User-agent: Yandex

User-agent: Google

Disallow: /*print_page=yes

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
vlasoff
На сайте с 31.08.2007
Offline
101
#4

Можно выдавать в версии для печати МЕТА-тег, запрещающий индексацию данной старницы:


<meta name="robots" content="noindex">

подробнее

PS Kost - спасибо за информацию

AN
На сайте с 05.06.2004
Offline
243
#5

Через роботс урлы такого вида закрыть будет трудновато...

Если есть возможность - выдавайте на страницах для печати метатег

<meta name="robots" content="noindex, follow">

AnNik добавил 26.01.2009 в 11:09

Kost:
User-agent: Yandex
User-agent: Google
Disallow: /*print_page=yes

Эээээ... А что, так можно? (два юзер-агента подряд, а потом дисаллоу)?

Размещу ваши баннеры на посещаемых сайтах. Места еще есть! Возможен безнал. (/ru/forum/324945) Нужны копирайтеры/рерайтеры - медики. Пишите в личку. (/ru/forum/676932)
K
На сайте с 31.01.2001
Offline
737
#6
AnNik:
А что, так можно? (два юзер-агента подряд, а потом дисаллоу)?

Да. Хоть четыре, проверено, работает. Можно экономить на длине robots.txt.

Да и в стандарте написано:

"User-agent

The value of this field is the name of the robot the record is describing access policy for.

If more than one User-agent field is present the record describes an identical access policy for more than one robot. At least one field needs to be present per record."

http://www.robotstxt.org/orig.html

User-agent: Googlebot

User-agent: Slurp

User-agent: msnbot

User-agent: Yandex

Эти четверо про звездочку знают.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий