murava

Рейтинг
28
Регистрация
08.10.2010

Думаю, что это из-за robots.txt.

У меня сейчас 90% страниц именно так и выглядят. Многих из них нет в топ100, но есть и такие, как написали Вы: в топ 10 с таким сниппетом.

Возьмем страницу с товаром. К примеру, у нее есть параметр: цвет. По ссылке на "цвет: зеленый" я хочу найти все зеленые товары. Получаем ссылку ../seatch/?color=green

Как раз он же и сказал, что вес будет передаваться дальше и не теряться на /search/

То-есть вопрос сводится к такому: 3 страницы A(index, follow) -> B(noindex, follow) -> C(index, follow).

Будет ли вес с А передаваться к С?

Но в интернетах я ответ на этот вопрос не нашел, вот и обращаюсь к вам.

Понимаете, вопрос тут именно в том, на сколько правильно добавлять кучу страниц с подобным содержанием. Фильтров много, результатов по каждому из фильтров тоже - соответственно результаты поиска разбиты на страницы.

Всего в индексе (без /search/) 20000 страниц, если открою /search/ - появиться еще 10000. И, что самое обидное, в этих +10000 страниц будет просто список ссылок на основные страницы. то-есть никакой контентной нагрузки они не несут - вопрос пока только в потере ихнего веса..

Никто не знает?

сайт: http://tabletki.ua

какой шанс и в какой раздел лучше подать?

Дело не в контенте. Вопрос именно в том, почему вебмастер не фиксирует "нормальные" исключенные страницы, а не те, которые я самостоятельно указываю как мусор в robots.txt.

Сайт был подан на бесплатную регистрацию еще 6-7 месяцев назад, но никакой реакции. При попытке повторного добавления, сообщают, что ресурс уже размещен в очереди на добавление... Сколько ж ждать можно?

Прокомментируйте и платно, и бесплатно, если не сложно.

Sapienter:
Нда........

как понимать?

12
Всего: 12