Дубли страниц

S
На сайте с 26.01.2008
Offline
131
444

Помогите пожалуйста в борьбе с дублями.

Есть сайт и много, много дублей такого вида:

http://domain.com/hip-hop/page_2

http://domain.com/hip-hop/page_3

http://domain.com/hip-hop/page_4

...

на первой и на всех последующих страницах все кроме контента одинаковое, т.е. тайтлы, дески и тд..

гугл на них ругается, прислав мне письмо в вебмастер-тулс.

1. Нужно закрыть все последующие страницы кроме первой?

2. Как быть с дублями которые уже в индексе? их уже 100к+ набралось

N
На сайте с 03.07.2011
Offline
35
#1

В свете зверствования панды, я их закрыл. Ищу причины кто виноват. Закрыл через noindex, follow. Там конечно же не 100к, а 1-2к было. Потихоньку выбрасывает из индекса.

Можно закрыть через роботс.тхт(будет быстро), что-то на подобии "hip-hop/page_" в случае если hip-hop - первая. Но мне кажется это не вариант, так как страницы вовсе вылетят и робот не будет ходить по линкам с этих страниц.

Я остановился на первом варианте через noindex в хедерах.

S
На сайте с 26.01.2008
Offline
131
#2

ну так думаю, мне и нужно их вообще закрыть, так как гугл ругаеться с таким текстом:

Робот Googlebot обнаружил чрезвычайно большое количество ссылок на вашем сайте. Это может свидетельствовать о проблеме, связанной со структурой URL-адресов сайта. Возможно, робот Googlebot без необходимости сканирует большое количество различных URL, указывающих на идентичное или похожее содержание, либо сканирует разделы сайта, не требующие сканирования. В результате робот Googlebot может потреблять гораздо больше ресурсов канала передачи данных, чем необходимо. Кроме того, есть вероятность, что он не сможет полностью просканировать все содержание сайта.

sigiziy добавил 22.11.2011 в 10:32

ну так как правильнее закрыть: все страницы кроме первых?

помогите пожалуйста...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий