WMT - Параметры адреса страницы.

12
Sower
На сайте с 30.12.2009
Offline
659
1382

Заходим в WMT > Конфигурация сайта > Настройки > Обработка параметров

Читаем

Если на вашем сайте используются параметры URL, некоторые из них могут быть не нужны для навигации по странице. Сообщите в Google, что эти парметры следует игнорировать, так как это позволит сократить количество повторяющегося содержания в индексе Google и упростит сканирование сайта.

Добавил параметр "pn" - пропустить.

Ожидал, что страницы, в динамическом адресе которых присутствует параметр pn не будут индексироваться, а они продолжают индексироваться. Я что-то не так понял или не так сделал?

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
angr
На сайте с 11.05.2006
Offline
413
#1

ну если гугл плюёт на "роботс" то почему бы ему и на это не плюнуть...

как вариант

Требуется СЕО-Специалист в Кишиневе, в офис. ()
_
На сайте с 20.10.2006
Offline
197
#2

А почему это не сделать старым, дедовским способом через robots.txt ?

Вечные ссылки на качественных англоязычных площадках. (/ru/forum/883099) Результат гарантирую!
Sower
На сайте с 30.12.2009
Offline
659
#3
_aleksey_:
А почему это не сделать старым, дедовским способом через robots.txt ?

А как? Допустим есть страницы:

data.php?cat=xxx

data.php?cat=xxx&pn=1

data.php?cat=xxx&pn=2

data.php?cat=yyy

data.php?cat=yyy&pn=1

data.php?cat=yyy&pn=2

data.php?cat=zzz

data.php?cat=zzz&pn=1

data.php?cat=zzz&pn=2

итд

Как запретить в роботсе индексацию страниц с параметром pn?

_
На сайте с 20.10.2006
Offline
197
#4
Sower:
А как? Допустим есть страницы:
data.php?cat=xxx
data.php?cat=xxx&pn=1
data.php?cat=xxx&pn=2
data.php?cat=yyy
data.php?cat=yyy&pn=1
data.php?cat=yyy&pn=2
data.php?cat=zzz
data.php?cat=zzz&pn=1
data.php?cat=zzz&pn=2
итд
Как запретить в роботсе индексацию страниц с параметром pn?

Пробуй

Disallow: /*&pn=*

При условии что data.php в корне

Sower
На сайте с 30.12.2009
Offline
659
#5
_aleksey_:
Пробуй
Disallow: /*&pn=*

При условии что data.php в корне

Сенкс, попробую. Не думал что в роботсе можно использовать звёздочки.

_
На сайте с 20.10.2006
Offline
197
#6
Sower:
Сенкс, попробую. Не думал что в роботсе можно использовать звёздочки.

Внеси изминения в роботс тхт. Зайди в панель вебмастера и наугад накидай своих урлов, какие ты хочешь побороть. Гугл сразу покажет при следующем заходе будет ли запрет на индексацию или нет.

Там кстати, не только звездочки можно, просто в твоем случае конструкции *&pn=* будет достаточно. :)

angr
На сайте с 11.05.2006
Offline
413
#7
Sower:
Не думал что в роботсе можно использовать звёздочки.

ай-я-яй :)

http://robotstxt.org.ru/

Sower
На сайте с 30.12.2009
Offline
659
#8
angr:
ай-я-яй :)

Что-то болит? :)

koba
На сайте с 04.04.2006
Offline
66
#9
Sower:
Заходим в WMT > Конфигурация сайта > Настройки > Обработка параметров
Читаем
Добавил параметр "pn" - пропустить.
Ожидал, что страницы, в динамическом адресе которых присутствует параметр pn не будут индексироваться, а они продолжают индексироваться. Я что-то не так понял или не так сделал?

Заметил тоже самое и у себя. Подозреваю, что это только указание пауку который лазит по сайту и сохраняет страницы для будущего анализа. Поэтому поведение примерно такое: если страница уже в индексе, то она никуда не денется и будет и дальше индексироваться. Новых же дублей появляться в индексе не должно.

Впрос в том как такая ссылка воспринимается google при распределении веса страниц внутри сайта? Не учитывается ли она как такая же ссылка но без параметра (blog.php = blog.php?pn=1)?

Sower
На сайте с 30.12.2009
Offline
659
#10
koba:
Подозреваю, что это только указание пауку который лазит по сайту и сохраняет страницы для будущего анализа. Поэтому поведение примерно такое: если страница уже в индексе, то она никуда не денется и будет и дальше индексироваться. Новых же дублей появляться в индексе не должно.

Залил новый сайт, сразу добавил его в WMT и указал параметр. Сайт индексируется, и весь хлам тоже. Заблокировал в robots.txt. Посмотрим как пойдёт дело. Новый роботс бот ещё не всосал.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий