- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. В процессе оптимизации ИМ возник вопрос.
Имеет место дублирование брендовых категорий, которое возникает ввиду того, что на страницу бренда можно перейти двумя путями - через фильтр в разделе и напрямую.
Например, в категорию "Смесители Grohe" мы можем попасть так: Главная - Смесители - фильтр "Grohe" (получаем url site.com/smesiteli/grohe)
И можем попасть Главная - Grohe - Смесители (получаем url site.com/grohe?id категории). На странице используется robots со значениями noindex, follow
На страницах полностью дублируется товар и Н1, но используются разные title и desc, текстовки нет.
Отсюда вопрос, как лучше выйти из сложившейся ситуации?
1. Делать во втором случае редирект на ту же страницу категории, что отдаётся в первом случае
2. Попробовать закрыть полностью через noindex, nofollow
ИМХО, лучше, чтобы не было страниц если их приходится закрывать в роботсе.:)
Я говорю про страницы каталога товара.
Здравствуйте. В процессе оптимизации ИМ возник вопрос.
Отсюда вопрос, как лучше выйти из сложившейся ситуации?
Так пропишите первый урл во втором случае.
Лучше вообще не допускать появления страниц второго типа. Но если там тег с noindex, то она не является дублем, потому что не влияет на ранжирование.
Лучше вообще не допускать появления страниц второго типа. Но если там тег с noindex, то она не является дублем, потому что не влияет на ранжирование.
Согласен, но проект мне достался уже в таком виде, поэтому нужно решать вопрос. Меня там смущает атрибут follow.
Вроде как Гугл адекватно обрабатывает эти инструкции, а вот Яндекс - не понятно.
При обходе роботом, не будут ли такие страницы "мешать" переобходить действительно важные разделы?
follow - директива краулинга, которая в данном случае - оптимальное решение.
страница не будет в индексе, но робот спокойно сможет попасть на другие важные страницы и при необходимости их проиндексировать;
директива noindex в свою очередь будет просто прерывать цепочку краулинга, что никак не в ваших интересах;
в долгосрочной перспективе желательно привести все url к единственному формату
Sent from my iPhone using Tapatalk
follow - директива краулинга, которая в данном случае - оптимальное решение.
страница не будет в индексе, но робот спокойно сможет попасть на другие важные страницы и при необходимости их проиндексировать;
директива noindex в свою очередь будет просто прерывать цепочку краулинга, что никак не в ваших интересах;
в долгосрочной перспективе желательно привести все url к единственному формату
Sent from my iPhone using Tapatalk
Вопрос в том, что важных страниц там как раз нет. Содержимое данной страницы дублирует страницу категории, отсюда вопрос: не лишние ли телодвижения будет выполнять краулер при взаимодействии с сайтом через эту страницу, расходуя лимит на бесполезные переходы?
Ведь все ссылки доступны и со страницы категории, которая лучше оптимизирована.
Про единый формат - само собой.
Здравствуйте. В процессе оптимизации ИМ возник вопрос.
Имеет место дублирование брендовых категорий, которое возникает ввиду того, что на страницу бренда можно перейти двумя путями - через фильтр в разделе и напрямую.
Например, в категорию "Смесители Grohe" мы можем попасть так: Главная - Смесители - фильтр "Grohe" (получаем url site.com/smesiteli/grohe)
И можем попасть Главная - Grohe - Смесители (получаем url site.com/grohe?id категории). На странице используется robots со значениями noindex, follow
На страницах полностью дублируется товар и Н1, но используются разные title и desc, текстовки нет.
Отсюда вопрос, как лучше выйти из сложившейся ситуации?
1. Делать во втором случае редирект на ту же страницу категории, что отдаётся в первом случае
2. Попробовать закрыть полностью через noindex, nofollow
Не надо ничего закрывать.
Страницы будут ранжироваться хуже.
Вам нужно привести URL страниц вида "категория+бренд" к одному виду, все ссылки на сайте должны быть сделаны только на один этот вариант адресов.
Вроде как Гугл адекватно обрабатывает эти инструкции, а вот Яндекс - не понятно.
Яндекс точно также обрабатывает. Сейчас все закрыто нормально, в перспективе страницы второго типа лучше устранить.
Яндекс точно также обрабатывает. Сейчас все закрыто нормально, в перспективе страницы второго типа лучше устранить.
Спасибо! Подскажите ещё, пожалуйста, может ли наличие таких страниц (а их немало - для каждой-то связки "бренд+категория" в магазине на 25+ тыс товаров) может быть причиной плохой индексации новых товарных страниц?
Если они закрыты от индексации, то не может.