Кто как скрывает ненужные фильтры?

FA
На сайте с 04.07.2013
Offline
61
961

Добрый день.

Решили расширить структуру сайта за счет оптимизации страниц - результатов фильтрации.

Но, естественно, помимо "нужных" страниц фильтрации, существует куча "хлама", который оптимизировать нет никакого смысла, и проще закрыть от индексации.

Таким образом, "нужные" страницы фильтрации должны индексироваться, а "НЕ нужные" должны быть скрыты, дабы не плодить дубли.

Каким образом вы скрываете такие страницы? На данный момент, у нас для таких страниц стоит тег: <meta name="robots" content="noindex"> но я вижу в вебмастере, что Яндекс все равно их сосканировал (что логично) и вероятно тратит свои ресурсы на их повторный обход. А таких страниц он нагенерировал несколько тысяч (до 10-15% от всех страниц сайта).

Может быть имеет смысл закрывать такие страницы через robots.txt ? Грубо говоря, неоптимизированные страницы фильтров будут иметь особый признак в конструкции УРЛ, по которому мы их сможем "отсеять". А оптимизированные, "нужные", будут без этого признака, и в теории должны нормально сканироваться.

Станислав Романенко
На сайте с 05.09.2007
Offline
325
#1

Закройте через robots.txt

Сайт не лезет в топ? Сделаю аудит без воды всего за 8000 рублей! Отзывы клиентов тут (https://searchengines.guru/ru/forum/939454), почта для связи: ingref@ya.ru Посмотрю, в чём проблема с вашим сайтом, за 100 рублей (https://searchengines.guru/ru/forum/comment/15662080).
FA
На сайте с 04.07.2013
Offline
61
#2
Ingref:
Закройте через robots.txt

А тот вариант, который через noindex - действительно не самый хороший?

И все же, интересно, кто и как решает данную задачу.

Ideas Garden
На сайте с 25.03.2016
Offline
23
#3

noindex всего лишь закрывает контент от индексации, а не ссылку. Вообще, если Вы хотите сделать доступным для индексации какой либо url фильтрации, постарайтесь для таких URL прописать ЧПУ. Все остальные ненужные закрываются в роботсе и на каждом фильтре ставится тег rel-canonical на соответствующую категорию. Таким образом, робот если будет заходить на фильтр, то будет смотреть не на эту страницу, а на страницу указанную в rel canonical и данные адреса уже не будут мусорными. Это как бы страховка на случай если робот проиндексирует динамические URL (фильтр), плюс проблема с дублями отпадет.

---------- Добавлено 23.09.2016 в 08:39 ----------

Я много игрался с этой ситуацией и указал самое полезное решение. В результате, с индексацией и продвижением проблем нет.

Ideas Garden (https://ideas-garden.com) - SEO продвижение, раскрутка сайтов, PPC. Наращиваем трафик и создаем поток продаж.
FA
На сайте с 04.07.2013
Offline
61
#4
Ideas Garden:
Все остальные ненужные закрываются в роботсе и на каждом фильтре ставится тег rel-canonical на соответствующую категорию.

И на каждом "ненужном" ставится каноникал? На нужных и оптимизированных то нет наверное смысла?

Ideas Garden
На сайте с 25.03.2016
Offline
23
#5
fisher_ak:
И на каждом "ненужном" ставится каноникал? На нужных и оптимизированных то нет наверное смысла?

Совершенно верно, но желательно, чтобы для них был ЧПУ. Вообще как бы не желательно загонять динамические страницы в индекс. Они попадают за частую в общий индекс, а не в основной и вес просто с сайта уходит в никуда.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий