Зачем закрывать фильтры в каталоге?

B
На сайте с 25.11.2015
Offline
10
2092

Всем привет, просматривая страницы крупных интернет-магазинов обнаружил, что у 80% сайтов фильтры товаров в каталоге закрыты от индексации с помощью nofollow и noindex, логично что это делается от дублирования контента

Но проблема в том что остальные 20% закрывают только базовые вещи, вроде внешних ссылок на главной и страниц с корзиной, бюджеты у них не маленькие, поэтому создается впечатление что они что-то знают. Также стоит отметить, что эти 20% вполне себя комфортно чувствуют в топе по вч запросам

Собственно вопрос - нужно ли закрывать каталог товаров (меню), нужно ли закрывать фильтр, нужно ли закрывать страницы появившиеся после применения фильтра?

adel92
На сайте с 04.01.2012
Offline
334
#1
Bartolomeos:
Всем привет, просматривая страницы крупных интернет-магазинов обнаружил, что у 80% сайтов фильтры товаров в каталоге закрыты от индексации с помощью nofollow и noindex, логично что это делается от дублирования контента

Но проблема в том что остальные 20% закрывают только базовые вещи, вроде внешних ссылок на главной и страниц с корзиной, бюджеты у них не маленькие, поэтому создается впечатление что они что-то знают. Также стоит отметить, что эти 20% вполне себя комфортно чувствуют в топе по вч запросам

Собственно вопрос - нужно ли закрывать каталог товаров (меню), нужно ли закрывать фильтр, нужно ли закрывать страницы появившиеся после применения фильтра?

Нужно тегом rel=canonical

NVMe VDS (https://well-web.net/nvme-vps) с поддержкой 24/7 - от 545 руб.! Безлимитный хостинг (https://well-web.net/ssd-hosting) - от 129 руб.! Домен в подарок! Перенос бесплатно! Заказывайте сейчас, и получите скидку 50%! Заходи! (https://well-web.net/limited-offers)
AT
На сайте с 08.04.2012
Offline
59
#2

Очевидно, что при работе фильтра товары по сути остаются одни и теже, поэтому логично их скрывать чтобы не было одинаковых страниц в базе.

D
На сайте с 06.11.2011
Offline
53
#3

Тут есть 3 варианта

1.закрыть от дублирования контента в файле робота

2.к страницам фильтра пагинации/листинга <meta name="robots" content="noindex, follow"/>

3.использовать на страницах пагианции/листинга/дублированных тег rel="canonical"

Maks_seo_1992
На сайте с 14.11.2016
Offline
100
#4
Djeik:
Тут есть 3 варианта
1.закрыть от дублирования контента в файле робота
2.к страницам фильтра пагинации/листинга <meta name="robots" content="noindex, follow"/>
3.использовать на страницах пагианции/листинга/дублированных тег rel="canonical"

+1

мне кажется больше тут добавить нечего.

W0
На сайте с 02.04.2007
Offline
189
#5

Приведите примеры этих 20% дилетантов.

Закрывать нужно все. Лучше потом постепенно открывать. Чем изначально бороться с 20 тью дублями у посадочной страницы.

B
На сайте с 25.11.2015
Offline
10
#6
warwar01:
Приведите примеры этих 20% дилетантов.

Закрывать нужно все. Лучше потом постепенно открывать. Чем изначально бороться с 20 тью дублями у посадочной страницы.

http://101siding.ru/

Практически ничего не закрыто, при это структура, контент, мета теги, все выполнено очень грамотно

У них еще непонятно для чего закрыта страница http://101siding.ru/catalog/stenovye-paneli/

HI
На сайте с 26.10.2016
Offline
14
#7

Для пагинации советуют использовать специальную разметку. Например для второй страницы можно так:

<link rel="prev" href="Страница1">

<link rel="next" href="Страница3">

А вообще, здесь подробнее описано

Разыгрываем 50 USD за правдивые отзывы (https://goo.gl/yvzNgd) о хостинг-провайдерах
abst
На сайте с 14.01.2011
Offline
136
#8

Страницы с динамическими параметрами фильтрации в URL всегда закрываю от индексации. Но для ИМ создаю страницы с выборками (результатами фильтрации по тому или иному параметру, читай тегирование) с нормальными ЧПУ, МЕТА и генеренным текстовым описанием. В итоге все это дело хорошо ранжируется и нет лишних дублей.

Облачные VPS с SSD (https://goo.gl/Z2PT6u) от 150 руб. ДЦ в МСК и СПБ. Utpime 99.9%. 100 рублей на тест в подарок!
B
На сайте с 25.11.2015
Offline
10
#9

Наткнулся на статью по SEO оптимизации http://www.cmsmagazine.ru/library/items/advance/how-do-we-do-seo-audit/

Фильтры очень важны при оптимизации — детальная проработка структуры фильтров позволяет интернет-магазинам наращивать трафик. Часто владельцы сайтов это понимают и создают фильтры, но лишь самые простые, например, фильтры по бренду и цене.

Фильтры следует воспринимать как часть структуры сайта, а не просто динамический элемент сортировки товаров для пользователей. При корректной оптимизации страниц фильтров они будут значимым источником поискового трафика и продаж.

Кто что скажет по этому поводу?

E
На сайте с 21.09.2009
Offline
283
#10
Bartolomeos:
Кто что скажет по этому поводу?

Это еще и понимать нужно как делать. Выше правильно заметили, чаще всего фильтрация, это дополнительные наборы данных, которые дублируют основные категории. запросы "размазываются" по ним. Лучше закрыть все, и по запросам если они есть, открывать нужные.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий