Думаю, что это из-за robots.txt.
У меня сейчас 90% страниц именно так и выглядят. Многих из них нет в топ100, но есть и такие, как написали Вы: в топ 10 с таким сниппетом.
Возьмем страницу с товаром. К примеру, у нее есть параметр: цвет. По ссылке на "цвет: зеленый" я хочу найти все зеленые товары. Получаем ссылку ../seatch/?color=green
Как раз он же и сказал, что вес будет передаваться дальше и не теряться на /search/
То-есть вопрос сводится к такому: 3 страницы A(index, follow) -> B(noindex, follow) -> C(index, follow).
Будет ли вес с А передаваться к С?
Но в интернетах я ответ на этот вопрос не нашел, вот и обращаюсь к вам.
Понимаете, вопрос тут именно в том, на сколько правильно добавлять кучу страниц с подобным содержанием. Фильтров много, результатов по каждому из фильтров тоже - соответственно результаты поиска разбиты на страницы.
Всего в индексе (без /search/) 20000 страниц, если открою /search/ - появиться еще 10000. И, что самое обидное, в этих +10000 страниц будет просто список ссылок на основные страницы. то-есть никакой контентной нагрузки они не несут - вопрос пока только в потере ихнего веса..
Никто не знает?
сайт: http://tabletki.ua
какой шанс и в какой раздел лучше подать?
Дело не в контенте. Вопрос именно в том, почему вебмастер не фиксирует "нормальные" исключенные страницы, а не те, которые я самостоятельно указываю как мусор в robots.txt.
Сайт был подан на бесплатную регистрацию еще 6-7 месяцев назад, но никакой реакции. При попытке повторного добавления, сообщают, что ресурс уже размещен в очереди на добавление... Сколько ж ждать можно?
Прокомментируйте и платно, и бесплатно, если не сложно.
как понимать?