15hforz

Рейтинг
17
Регистрация
08.10.2012
Armagedonik:
Эти страницы точно содержат нужную информацию?

Эти страницы выглядят как нормальные страницы и содержат товары в зависимости от выбранного параметра в фильтре.

В ВМ гугла в параметрах URL я указал, что это отдельные страницы...

Ага, за 6 месяцев индексация такая:

606.000 --> 678.021 --> 1.271.544 --> 1.125.695 --> 1.100 104 --> 337.642

Что-то жестко в последний месяц выкинуло!

То есть как в ВМ Яндекса нет "Исключенные страницы"?

Смотрю по ВМу.

Я так понимаю Гугл выкинул страницы из индекса, но мне надо понять КАКИЕ страницы он выкинул??

bodofix:
Зачем вообще скармливать страницы с которых практически невозможно получить трафика?

Ну ведь никто не знает наперед и наверняка как будет пользователь вводить запрос в ПС, поэтому то и было принято такое решение 🤪

А ответ на вопрос я так и не услышал на тему:

"А если в дальнейшем когда "схаваются" нужные мне страницы - условие переделывать и "скармливать" по-тихоньку - появится такая же проблема или она возникает из-за массового разового индексирования страниц??"

+ ко всему, не все параметры пересекаются друг с другом, т.к. если у товара нет этого параметра - значит и в фильтре ссылка мертвая.

bodofix:
Каждая запятая, я так понял, это разделитель выбранного фильтра. Если закрыть запятые то не будут индексироваться 2 и более параметра. Надо дать задание программисту, например чтоб убрать такие варианты -
Фильтры с одинаковыми значениями, нов разном порядке:
page 1: site.ua/filter=а,b,c
page 2: site.ua/filter=b,c,a <link rel="canonical" href="page 1">
page 3: site.ua/filter=c,a,b <link rel="canonical" href="page 1">
...и т.д
Закрывать не придется и правильней будет.

В том то и дело что такие страницы обрабатываются по другому - если выбран 1ый параметр, а потом 2ой - страница имеет вид site.ru/filter=1,2 и наоборот, если выбран сначала 2ой параметр, а затем 1ый - страница имеет такой же вид site.ru/filter=1,2. Как реализовано не знаю, но это реализовано.

bodofix:

Программист сделает. Делаете условие если фильтров выбрано больше 3х или 4х, то закрываем страницу.

Тоже вариант.

В каждом разделе есть фильтр со своими параметрами, может тогда еще закрыть параметры, которыми мало кто вообще будет пользоваться?

А если в дальнейшем когда "схаваются" нужные мне страницы - условие переделывать и "скармливать" по-тихоньку - появится такая же проблема или она возникает из-за массового разового индексирования страниц??

Pavelcreative:
Фильтры могут быть в разном порядке?
К примеру [папка конверт на кнопке а5] и [папка а5 конверт на кнопке] -что будет в данном случае?
Как вариант закрывать все фильтры, с доп. параметрами.
К примеру site.ru/podrazdel/?id=1-212,2-1231,5-12312
Закрываем все, где есть запятая - Disallow: /*,
Robots.txt tester

При перестановке параметров фильтра - дубли отсутствуют.

Закрывать в том то и дело не желательно, т.к. потеряем трафик с большого кол-ва НЧ.

bodofix:
1.В title попадают название фильтров?
2.Фильтры не генерируют пустых страниц?
3. Можно сделать разные условия при которых на страницы будет ставиться noindex,nofollow дабы не генерировались бредо-фильтры например: цвет,цвет,цвет или формат+формат+формат итд. Так же закрыть уровень фильтров более 3х или 4х

Думаю это должно помочь.

1. Title генерируется по шаблону: {Page_name}: {parameter_name_1} {parameter_value}, {parameter_name_2} {parameter_value}...

2. Пустые страницы отсутствуют

3. Если для выбран цвет+цвет, формат+формат - то на странице прописывается noindex, nofollow. Что означает закрыть уровень фильтров более 3х, 4х? И как это можно реализовать?

В каждом разделе есть отдельный фильтр по параметрам товаров.

Сделано это было для генерации страниц с целью сбора трафика по огромному кол-ву запросов, например, [бумага color copy а4], [папка конверт на кнопке а5].

Таким образом для запроса [бумага color copy] - отдельная страница, для запроса [бумага color copy а4] - отдельная страница, для запроса [папка конверт] - отдельная страница, для запроса [папка конверт на кнопке] - отдельная страница, для запроса [папка конверт на кнопке а5] - отдельная страница и тд.

В том то и дело что фильтр у меня не имеет параметров фильтра, например site.ru/.../?filter... Закрывать в роботсе нечего))

Все страницы фильтра имеют уникальный адрес, правда не ЧПУ

12
Всего: 19