Скрытие страниц сортировки, фильтров

P
На сайте с 27.12.2012
Offline
81
1448

У большого магазина, портала есть большое количество дублей, страниц сортировки и фильтров.

Например,

для товаров - отдельные страницы сортировки по брендам + пагинация;

для новостей сортировка по дате, тегам, авторам статей.

Дубли можно "скрыть" от поисковых роботов двумя способами:

1. ограничиться указанием для ссылки страницы фильтра rel=nofollow, <noindex>, запрещением непосредственно индексирования страницы в robots.txt через Disallow.

2. ссылку на страницу с фильтром реализовать при помощи JS, SEO-hide, а также зная IP, либо названия ботов запретить переходить на эти страницы настроив htaccess.

Это предлагается c целью ускорения процесса индексации всего сайта, тем более в отличии от Google, у Yandex проблемы с индексацией.

Как влияет общее количество страниц на ранжирование и индексацию, если например у сайта всего 100 000 страниц, а в индексе не более 15 000?

Насколько целесообразна 2-ое предложение, какое отношение поисковиков к скрытию ссылок через JS ?

bastet141
На сайте с 19.08.2015
Offline
14
#1

1. дубли - это плохо, пагинацию можно не трогать, а все остальное закрыть нужно командами в роботс

2. JS поисковики не учитывают

3. кол-во страниц влияет даже не столько на ранжирование, сколько на трафик, старайтесь засунуть как можно больше страниц в индекс

Продвижение социальными сигналами (http://getsocial.ru/)
SZ
На сайте с 21.02.2014
Offline
22
#2

Лучший способ для дублей - каноникал, лучше ничего нет

Пагинация - отдельная песня, возможно тоже каноникал, надо глядеть

P
На сайте с 27.12.2012
Offline
81
#3
SeoZoom:
Лучший способ для дублей - каноникал, лучше ничего нет
Пагинация - отдельная песня, возможно тоже каноникал, надо глядеть

Я может неясно описал проблему, суть даже не в дублях, а в том проиндексируются ли полезные страницы (в том числе продвигаемые и страницы с ссылками на продвигаемые страницы) быстро из-за большого количества других малоинформативных страниц, дублей, которые например можно запретить индексировать. если даже для страницы стоит свойство non-canonical или rel=nofollow для ссылки, это вовсе не означает что бот не перейдёт по этой ссылке.

Понимает ли бот, по каким ссылкам можно ходить, а по каким не стоит?

У меня был опыт, когда уменьшение общего количества страниц (как полезные страницы, так и страницы-дубли, сортировки, фильтры) приводило к увеличению страниц в поисковой выдаче.

У меня был как-то сайт на базовой оптимизации при реальной численности страниц не более 500, генерировалось более 100 000 страниц, оказалось что программист-очумелец прикрутил к пагинации генератор случайных чисел.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий