В индексе гугла больше миллиона страниц.

G1
На сайте с 18.10.2011
Offline
16
729

Заметил такую особенность, у многих сайтов. В индексе Яндекса у них около 10000 страниц - так и есть на самом деле, а вот в Гугле у них больше миллиона, я так понимаю это страницы которые получены с использованием фильтров (фильтр цены, производителя, характеристик). У многих движков страницы созданные с помощью фильтров - запрещены к индексации, а многих разрешены. Как лучше?

Ripro
На сайте с 04.11.2006
Offline
144
#1

Я закрываю фильтры от индексации и на странице, и в роботс.

Но помимо фильтров есть горы мусора, который попадает в выдачу, его нужно найти и удалить или закрыть, прописать канонические ссылки, или редиректы ставить - все зависит от конкретной ситуации.

_yurix_
На сайте с 20.01.2007
Offline
93
#2

Лучше запретить все виды фильтрации, запретить вторые страницы, запретить поиск, тэги и все что содержит "?" в URL

Почему?

Нужно держать под контролен что индексируют и выдают поисковики, а если оставить им тысячи похожих страниц они могут ошибиться + неправильно рассчитать веса страниц. Короче во избежании каши.

S0
На сайте с 09.09.2013
Offline
123
#3
_yurix_:
запретить вторые страницы,

спрошу, раз упомянули...

Стоит ли бороться со страницами рода (в разделе новости)?:

site.ua/statti.html?start=20 (стр.2)

site.ua/statti.html?start=30 (стр. 3)

site.ua/statti.html?start=40 (стр. 4)

Или это безобидно?...

Не люблю, когда ВМТ чем-то не доволен...

Ripro
На сайте с 04.11.2006
Offline
144
#4

Уже не раз обсуждали постраничную навигацию, в соседней теме подробно. Не нужно ее закрывать

W0
На сайте с 02.04.2007
Offline
189
#5

Смотря что Вы на этих страницах выводите, если у Вас получаются за счет этого дубли контента то закрывать нужно.

_yurix_
На сайте с 20.01.2007
Offline
93
#6
Ripro:
Уже не раз обсуждали постраничную навигацию, в соседней теме подробно. Не нужно ее закрывать

Если есть возможность - лучше закрыть мета тэгом noindex, follow.

Вообще распределение веса на страницы нивелируется тем, что страница category/page/2/ на 1 клик дальше страницы category/, что придает ей меньше веса и она вряд ли обгонит в результатах первую.

А вот страница типа "?list=100" может обогнать страницу "?list=20", так как расстояние в кликах от главной до них одинаковое, так что я бы закрывал их. (это уже к вопросу о фильтрации)

Для SE-0 - я бы переписал УРЛ таких страниц во избежании использования ?, и закрыл бы от индексации все, что содержит знак вопроса

В роботсе страницы лучше не закрывать, но если есть вариант поставить тэг noindex, follow я бы предпочел его.

Пошел читать соседнюю тему, может что нового узнаю.

G1
На сайте с 18.10.2011
Offline
16
#7

Ещё заметил ситуацию, что сайты с большим кол-вом страниц (1 млн и больше) за счёт индексации страниц с параметрами фильтра, имеют большую посещаемость с гугла и больше показатели PR.

_yurix_
На сайте с 20.01.2007
Offline
93
#8

gsv1982, и это правда, но до тех пор пока гугл не решит что это все шлак и не понизит весь сайт за дубли/мусорные страници и т.д.

Многим удается долго держаться на плаву генерирую тысячи страниц, но это надо делать с умом

G1
На сайте с 18.10.2011
Offline
16
#9

Ну тогда наверное попробую. Бояться мне нечего траф из гугла 10-12%. Главное чтобы Яндекс потом не обиделся на меня, за такие манипуляции.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий