- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, уважаемые форумчане!
Дано: интернет-магазин мебели с большим ассортиментом. Нужно решить вопрос с закрытием от индексации фильтров. Например, на странице категории "Диваны" https://site.ru/catalog/myagkaya-mebel/divany/ есть следующие фильтры:
Производитель:
и т.д.
Материал:
Цвет:
Хотим закрыть от индексации страницы, образуемые при выборе больше чем одного фильтра. Например, при выборе фильтра "Дерево" страница https://site.ru/catalog/myagkaya-mebel/divany/iz-dereva/ будет индексироваться, а если выбираем еще одно значение фильтра, например, "Белый", то страница https://site.ru/catalog/myagkaya-mebel/divany/iz-dereva/belye/ не будет индексироваться.
Теперь вопрос: стоит ли вообще закрывать от индексации такие страницы? Если да, то как лучше закрыть страницы при двух и более активных значениях фильтров от индексации?
Если есть отдельные страницы фильтров, зачем их закрывать? Может лучше оптимизировать под запросы вида мебель из дерева/столы/белые?
Адрес в строке становится в виде параметра или ЧПУ?
закрыть через robotx.txt
кнопки перехода по фильтрам в <noindex> закройте
На страницах фильтрах должен быть каконикал - так обычно во всех движках по умолчанию делается.
Если они в индекс пойдут то может получиться, что будет много страниц под 1 КС. С одной стороны если веса много у таких страниц то в гугле бывает что по 2-3 раза в выдаче по разным страницам сайт будет выпадать, а по факто эти страницы могут не стабильно в индексе держаться как "результат работы фильтра" и выпадать в "некачественные страницы" тем самым снижая общее качество сайта.
Если страницы имеют ЧПУ и ключи не будут дублироваться на разных адресах, то такие страницы надо развивать.
Если есть отдельные страницы фильтров, зачем их закрывать? Может лучше оптимизировать под запросы вида мебель из дерева/столы/белые?
Смотрите, пользователь выбрал на странице https://site.ru/catalog/myagkaya-mebel/divany/ фильтр "Дерево". Теперь он хочет выбрать другое значение фильтра (а он уже выбрал одно значение из фильтра "Материал"), например, у фильтра "Цвет" выбрать "Белый". Он выбирает "Белый" и попадает на страницу https://site.ru/catalog/myagkaya-mebel/divany/iz-dereva/belye/, то есть на страницу с двумя активными фильтрами - "Дерево" и "Белый".
Посмотрите наглядный пример: на сайте lifemebel.ru в любой категории при выборе более одного фильтра добавляется noind.
Пример: lifemebel.ru/catalog/mebel_dlya_gostinoy/myagkaya_mebel/divany/?noind=Y&SECTION_ID=74&NUM_SIZE=72&PAGEN_1=1&FILTER_MATERIAL_G[0]=derevo&FILTER_COLOR_G[0]=belyy&sort_by=sort
---------- Добавлено 28.09.2017 в 18:03 ----------
Адрес в строке становится в виде параметра или ЧПУ?
закрыть через robotx.txt
кнопки перехода по фильтрам в <noindex> закройте
На страницах фильтрах должен быть каконикал - так обычно во всех движках по умолчанию делается.
Если они в индекс пойдут то может получиться, что будет много страниц под 1 КС. С одной стороны если веса много у таких страниц то в гугле бывает что по 2-3 раза в выдаче по разным страницам сайт будет выпадать, а по факто эти страницы могут не стабильно в индексе держаться как "результат работы фильтра" и выпадать в "некачественные страницы" тем самым снижая общее качество сайта.
Если страницы имеют ЧПУ и ключи не будут дублироваться на разных адресах, то такие страницы надо развивать.
Адрес становится в виде ЧПУ, то есть при выборе значения фильтра "Цвет", например, "Белые", ссылка становится https://site.ru/catalog/myagkaya-mebel/divany/belye/
а если исходный код такой страницы открыть там есть типа?
<link rel="canonical" href=" https://site.ru/catalog/myagkaya-mebel/divany/"/>
Если да, то они не будут индесироваться, если нет то смотрите чтобы ключи не дублировались одинаковые на разных страницах
Так в принципе под яндекс и продвигаются - кластиризируют запросы до самого НЧ, а по какой технологии они получаются не важно. Tiu.ru вон под всякий НЧ у него подобная категория в индексе и собирает траф.
а если исходный код такой страницы открыть там есть типа?
<link rel="canonical" href=" https://site.ru/catalog/myagkaya-mebel/divany/"/>
Если да, то они не будут индесироваться, если нет то смотрите чтобы ключи не дублировались одинаковые на разных страницах
Так в принципе под яндекс и продвигаются - кластиризируют запросы до самого НЧ, а по какой технологии они получаются не важно. Tiu.ru вон под всякий НЧ у него подобная категория в индексе и собирает траф.
Нет, каноникал убран.
Дело не в самом закрытии фильтра, а в том, что будет большое количество дублей.
Смотрите, пользователь выбрал на странице https://site.ru/catalog/myagkaya-mebel/divany/ фильтр "Дерево". Теперь он хочет выбрать другое значение фильтра (а он уже выбрал одно значение из фильтра "Материал"), например, у фильтра "Цвет" выбрать "Белый". Он выбирает "Белый" и попадает на страницу https://site.ru/catalog/myagkaya-meb...-dereva/belye/, то есть на страницу с двумя активными фильтрами - "Дерево" и "Белый".
Ну и отлично, надо оптимизировать эту страницу под запрос "белые диваны из дерева".
Ну и отлично, надо оптимизировать эту страницу под запрос "белые диваны из дерева".
Это-то да, но как быть с тем, что в индекс попадут такие урлы site.ru/catalog/myagkaya-mebel/divany/iz-dereva/belye/nedorogie/malasiya/?
Такой урл надо продвигать по запросу "недорогие белые диваны из дерева малайзия". Если такие запросы не интересуют, то надо в скрипте настроить так, чтобы при выборе более скольких-то фильтров добавлялся канонический мета-тег.
Такой урл надо продвигать по запросу "недорогие белые диваны из дерева малайзия". Если такие запросы не интересуют, то надо в скрипте настроить так, чтобы при выборе более скольких-то фильтров добавлялся канонический мета-тег.
Спасибо большое за дельный совет! А что скажете про способ, который использует магазин lifemebel.ru? Они добавляют в урл при выборе более одного фильтра параметр noind и закрывают такие урлы от индексации в Robots Disallow: /*noind.
Ну можно и так.