Много страниц в индексе

B
На сайте с 03.02.2013
Offline
2
382

Здравствуйте, уважаемые форумчане.

У меня вопрос насчет большого количества страниц в индексе.

Если верить инструментам веб мастеров, в индексе около 1,5 млн страниц, или по запросу site:название сайт/&

В основной выдаче около 3 тыс страниц. site:название сайт/

На сайте (интернет магазин) чуть больше 4 тыс товаров + страницы со статьями.

Просмотрев выдачу заметил что все хламные ссылки имеют следующий вид

Название сайт/ категоия /filter/size/48,75c,85e

Название сайт/ категоия /filter/color/belyj-jekri/size/s-m

По ссылкам видно, что проиндексировались фильтры из каталога с товарами.

Необходимо закрыть от индексации ссылки содержащие size и color, а так же другие значения фильтров.

Вопрос номер один - Подскажите, как лучше это сделать?

И собственно вопрос номер два, который меня интересует, как после запрета индексации не нужных ссылок, на это отреагируют ПС ?

Iloveseo
На сайте с 11.10.2010
Offline
77
#1
Bruney:
Просмотрев выдачу заметил что все хламные ссылки имеют следующий вид

в какой это ПС?

Studio-s01
На сайте с 03.02.2013
Offline
50
#2

Не переживайте лишний бред со временем выпадет сам, потянув за собой и часть нормального контента // потому лучше закрыть нежелательные ссылки в Робот тхт

Заработай на своем канале YouTube Минимальная сумма выплат 0,50 WMZ Регистрация (http://www.air.io/?page_id=1432&aff=1682)
B
На сайте с 03.02.2013
Offline
2
#3

В поисковике Google.

А так же в инструментах для веб-мастеров в раздел - ошибки сканирования можно наблюдать больше кол-во ссылок, которые не рабочие, а перестают они работать тогда, когда какое то значения фильтров скрывалось с сайта и гугл не мог найти эту ссылку, соответственнопомечает ее, что вполне логично.

Iloveseo
На сайте с 11.10.2010
Offline
77
#4
Bruney:
В поисковике Google.

я б оставил все как есть. в Яше же нормально?

B
На сайте с 03.02.2013
Offline
2
#5
Studio-s01:
Не переживайте лишний бред со временем выпадет сам, потянув за собой и часть нормального контента // потому лучше закрыть нежелательные ссылки в Робот тхт

вопрос был в том как лучше этого сделать ? ;)

а почему лишние хламные ссылки сами отпадут, если я ничего для этого не сделал?

Если верить графику в Инструментах для веб-мастеров, в разделе Статус индексирования то все идет по возрастающей.

Sheens
На сайте с 01.01.2008
Offline
68
#6

Закрыть так


User-agent: *
Disallow: /*filter/color
Disallow: /*filter/size

(ну, суть понятна, надеюсь)

Всё это будет полезно, дубли страниц ни к чему

ZO
На сайте с 09.11.2011
Offline
65
#7

Такой вопрос своеобразный ответьте пожалуйста однозначно.

Есть сайт который был в топе долго время, после смены CMS осталось много страниц лишних в индексу гугла, потом пришел пингвин и сайт вообще пропал из выдачи.

Внимание вопрос, убирать дубли и закрывать старые страницы от индексации?

Лично Я бы все закрыл, далее накупил ссылок с анкормами как у конкурентов.

Интересует ваше мнение

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий