- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую всех. Проблема в интернет магазине...
Задача стоит уже долгое время но никак не могу найти ей решение.
Вообщем всем известно что как правило Layered navigation меню создает дубликаты страниц добавляя к урлам доп параметры наподобие
Сначала я решил такие параметры закрыть от индексации через роботс и отдельно добавил в google.webmaster ограничение на индексацию параметров... Вроде работало... Но потом я решил изменить эти параметры на человекообразные урлы и получилось что то вроде /some-page/men/3745.html или /some-page/men.html или /some-page/3745.html
При этом теперь страницы дублируют title, h1 и текст /some-page.html
Последним нововедением стало что к этим страницам
/some-page/men/3745.html и /some-page/men.html и /some-page/3745.html
я добавил в head
но кажется это очень плохо работает поскольку теперь у меня тысячи дублей.
Что делать посоветуете?
Обратил внимание что lamoda.ru при переходе на доп параметры, юзеру дает право посмотреть страницу с ответом 200, а бота отправляет 301 на основную страницу
Правильное ли это решение или это может заметить поисковик и забаннить за обман?
Какое решение выбрать, посоветуйте пожалуйста, как правильно избавиться от дублей layered navigation меню..
Заранее благодарен.
Закрыть в robots.txt, прописать у страниц canonical - вроде помогает, в выдаче дублей нет.
Играть с роботом в редиректы я бы не стал.
Закрыть в robots.txt, прописать у страниц canonical
либо одно, либо второе :)
хотя и то и то не работает ;)
либо одно, либо второе :)
хотя и то и то не работает ;)
Вот о чем и речь каноникал прописаны роботсы прописаны на самой странице в мета и чёто не работает как надо )
Получается 100% решение нет ? Только каким нибуть js все закрывать?
Rocca, там логика простая если запрещать к индексации, то каноникл теряет смысл - его не будут принимать в расчёт
вообще, всё это только рекомендации для пс, а не правила, достаточно одной внешней ссылки и это будет в поиске :)
поэтому вариант только один - отсутствие неканонических url в принципе
Rocca, там логика простая если запрещать к индексации, то каноникл теряет смысл - его не будут принимать в расчёт
вообще, всё это только рекомендации для пс, а не правила, достаточно одной внешней ссылки и это будет в поиске :)
поэтому вариант только один - отсутствие неканонических url в принципе
Неканонические отсутсвуют.... Я думаю я вы ключу чпу для фильтров. При. Нахождении на странице с включенным фильтром в роботс пропишу дисалоу в мета пропишу ноуфоллоу и ноиндекс + будет каноникал на страницу без фильтров. И надеюсь рекомендации может вос примут за правило. Как вам такое решение?