Layered navigation как оптимизировать под SEO?

R
На сайте с 11.04.2015
Offline
6
1029

Приветствую всех. Проблема в интернет магазине...

Задача стоит уже долгое время но никак не могу найти ей решение.

Вообщем всем известно что как правило Layered navigation меню создает дубликаты страниц добавляя к урлам доп параметры наподобие

?brands=3745&genders=men

Сначала я решил такие параметры закрыть от индексации через роботс и отдельно добавил в google.webmaster ограничение на индексацию параметров... Вроде работало... Но потом я решил изменить эти параметры на человекообразные урлы и получилось что то вроде /some-page/men/3745.html или /some-page/men.html или /some-page/3745.html

При этом теперь страницы дублируют title, h1 и текст /some-page.html

Последним нововедением стало что к этим страницам

/some-page/men/3745.html и /some-page/men.html и /some-page/3745.html

я добавил в head

<meta name="robots" content="NOINDEX,NOFOLLOW"/>

но кажется это очень плохо работает поскольку теперь у меня тысячи дублей.

Что делать посоветуете?

Обратил внимание что lamoda.ru при переходе на доп параметры, юзеру дает право посмотреть страницу с ответом 200, а бота отправляет 301 на основную страницу

www.lamoda.ru/c/479/clothes-muzhskaya-verkhnyaya-odezhda/?base_materials=19&brands=3745&genders=men

Правильное ли это решение или это может заметить поисковик и забаннить за обман?

Какое решение выбрать, посоветуйте пожалуйста, как правильно избавиться от дублей layered navigation меню..

Заранее благодарен.

M
На сайте с 12.11.2005
Offline
122
#1

Закрыть в robots.txt, прописать у страниц canonical - вроде помогает, в выдаче дублей нет.

Играть с роботом в редиректы я бы не стал.

[Удален]
#2
modelist:
Закрыть в robots.txt, прописать у страниц canonical

либо одно, либо второе :)

хотя и то и то не работает ;)

R
На сайте с 11.04.2015
Offline
6
#3
burunduk:
либо одно, либо второе :)

хотя и то и то не работает ;)

Вот о чем и речь каноникал прописаны роботсы прописаны на самой странице в мета и чёто не работает как надо )

Получается 100% решение нет ? Только каким нибуть js все закрывать?

[Удален]
#4

Rocca, там логика простая если запрещать к индексации, то каноникл теряет смысл - его не будут принимать в расчёт

вообще, всё это только рекомендации для пс, а не правила, достаточно одной внешней ссылки и это будет в поиске :)

поэтому вариант только один - отсутствие неканонических url в принципе

R
На сайте с 11.04.2015
Offline
6
#5
burunduk:
Rocca, там логика простая если запрещать к индексации, то каноникл теряет смысл - его не будут принимать в расчёт

вообще, всё это только рекомендации для пс, а не правила, достаточно одной внешней ссылки и это будет в поиске :)

поэтому вариант только один - отсутствие неканонических url в принципе

Неканонические отсутсвуют.... Я думаю я вы ключу чпу для фильтров. При. Нахождении на странице с включенным фильтром в роботс пропишу дисалоу в мета пропишу ноуфоллоу и ноиндекс + будет каноникал на страницу без фильтров. И надеюсь рекомендации может вос примут за правило. Как вам такое решение?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий