Как правильно закрыть в robots.txt?

Jumanjee
На сайте с 27.03.2010
Offline
83
397

Контент на сайте представляется в виде фото галерей.

Адрес материала формируется, к примеру site.com/novaya-fotogalereya

Внутри есть ссылки на другие фото в виде site.com/novaya-fotogalereya?p=1 site.com/novaya-fotogalereya?p=2

Я так понимаю, что эти страницы с ?p= являются дублями site.com/novaya-fotogalereya, т.е. их лучше закрыть от индексации, но как это правильно сделать с роботсе? (У меня предположение на Disallow: *?p=*) Или нофоллов внутри кода хватит?

L
На сайте с 13.08.2011
Offline
40
#1
Jumanjee:
Disallow: *?p=*)

так весь сайт закрыт

так все адреса включающие "p="

Disallow: /*p=

dma84
На сайте с 21.04.2009
Offline
168
#2
looner:
так весь сайт закрыт

так все адреса включающие "p="
Disallow: /*p=

Disallow: /*?p=

K
На сайте с 31.01.2001
Offline
737
#3
Jumanjee:
Disallow: *?p=*
looner:
так весь сайт закрыт

С какого перепугу весь сайт-то?

dma84 указал точно такой же вариант, но более корректный.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
L
На сайте с 13.08.2011
Offline
40
#4

спорить не буду.

таких конструкций не видел нигде с несколькими *. оно, конечно, понятно что означает, но тем неменее.

вот в гугловском вебмастере аналогичный пример нашел. советуют так закрывать:


Чтобы заблокировать доступ ко всем URL-адресам, содержащим знак вопроса (?) (то есть ко всем URL-адресам, которые начинаются с названия домена и содержат вопросительный знак), добавьте в файл robots.txt следующую запись:
User-agent: Googlebot
Disallow: /*?
K
На сайте с 31.01.2001
Offline
737
#5
looner:
оно, конечно, понятно что означает, но тем неменее.

Вот именно, почитайте сначала help.yandex.ru, и др. ссылки из здешнего FAQ, а уже потом пишите подобные откровения на форум, если придет ясность в мыслях.

Jumanjee
На сайте с 27.03.2010
Offline
83
#6

Благодарю 10 раз

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий