- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте интернет магазина __shoes-kids.com.ua__ на протяжении нескольких лет существования постоянно растет число ненужных проиндексированных страниц. Движок сайта старый самописный.
Лишние страницы получаются из комбинаций фильтра товара при выборе бренда категории и т.д.
Например __shoes-kids.com.ua/demar,madaxi,biku-kids__. Проблема была обнаружена и решена добавлением <link href=»канонический» rel=»canonical» /> с указанием канонической страницы (категории). Но уже прошло более двух недель а количество страниц не уменьшается. Посмотрите пожалуйста может где ошибка. Или есть другой способ. Проблема в том что из за разных комбинаций по фильтрам получаются страницы с одинаковыми мета тегами и гугл предупреждает об этом в вебмастере.
robots поможет
а canonical не выкидывает мусор из поиска... а просто указывает пс какая страница каноническая а какая нет
Не понял. Зачем тогда canonical ? Подскажите как сделать так, чтобы не индексировались страницы получаемые из пересечения фильтров категорий брендов и страниц?
почитай хелпы про роботс, там все расписано
почитай хелпы про роботс, там все расписано
Я не специалист. Подскажите в robots.txt я могу закрыть доступ только по определенному URL ? А как ему указать запрет на комбинации фильтров ? Дайте пожалуйста ссылку где об этом почитать.
Не понял. Зачем тогда canonical ? Подскажите как сделать так, чтобы не индексировались страницы получаемые из пересечения фильтров категорий брендов и страниц?
Справка Google о применении rel canonical
Как правильно использовать rel="canonical" для успешной индексации в поиске Google, статья на Серче.
Описание работы с robots.txt, справка Яндекса. Плюс - удобный анализатор robots.txt, так же от Яндекса, можно в режиме реалтайм протестировать правильно ли составлены правила и что они запрещают.
Моё имхо:
A). rel canonical намного удобнее для управления дублями страниц, чем robots.txt, поскольку всё управление делается в движке сайта автоматически.
B). в robots.txt надо лазить руками, и я не представляю как там можно закрыть 1000 дублей и при этом не поломать себе "моск". Не все url имеют общее начало, чтобы им можно было легко прописать шаблон. robots.txt имеет ограничение на размер, если более 32 Кб - Яндекс считает, что "разрешено всё" даже не читая что там.
C). По rel canonical, вес со всех неканонических дублей(а на них есть внутренние ссылки и могут быть внешние) переклеивается на каноническую страницу. Тогда как robots.txt просто убирает их из индекса с потерей ссылочного веса.
D) Если модифицировать движок сайта на поддержку rel canonical не представляется возможным(нет знаний, нет программера, неохота разбираться) - тогда уже юзаем возможности robots.txt
Ида, Google индексирует страницы,закрытые в robots. И robots, и rel canonical - это лишь рекомендации для ПС.
Ladycharm, Большое спасибо ! Я правильно понимаю что набрав _site:shoes-kids.com.ua_ я буду по прежнему видеть 130000 проиндексированных страниц, google не будет учитывать закрытые rel canonical , но я этого не увижу? Пока в Вебмастере продолжаются сообщения о повторяющихся метаописаниях...
demar-kids, похожую ситуацию лучше решить так, отдавать на не неужные страницы метатег ноиндекс. и все не нужные уйдут из индекса. В роботс зароете, только сканировать не будет, а в индексе останется. К программистам Вам в общем.
Ladycharm, Большое спасибо ! Я правильно понимаю что набрав _site:shoes-kids.com.ua_ я буду по прежнему видеть 130000 проиндексированных страниц, google не будет учитывать закрытые rel canonical , но я этого не увижу?
Сами ПС обещают, что в выдаче будут стараться давать ссылку на каноническую страницу, вот, кстати, про rel canonical от Яндекса
Гарантировать, что Google и Яндекс перестанут учитывать страницы-дубли - невозможно, но страницы должны склеится по одинаковому контенту, rel canonical явно намекает ПС, что это - нечёткие дубли.