- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет. Столкнулась на нескольких проектах со следующей проблемой: прописан rel canonical для страниц вида (даны далее примеры) site.ru/otzyvy?review_start=20 и site.ru/konsultacii?lm_scope=section_consultations&lm_id=481&page=2, но при этом рел каноникал игнорируется, в Я.Вебмастере в разделе "Страницы в поиске" уведомление, что страницы все равно попадают в индекс, и они правда в поиске Яндекса и Гугла, проверяла.
Было принято решение закрыть страницы правилами в robots.txt. Вопрос: оставлять ли rel canonical со страниц при обновлении роботс с запрещающими правилами, или же наоборот канонические тогда нужно будет удалить? Спасибо.
Чем больше дублей вы позакрываете, тем меньше надо костылей rel canonical.
rel=canonical – не для исключения из индекса, а для указания поисковикам – какой из дублей ПОКАЗЫВАТЬ в выдаче.
На закрытых в robots.txt страницах – не важно что...
Поисковики давно грозились учитывать rel=canonical только в случае реальных дублей контента (а не потому, что на серче что-то писали).
Вопрос: оставлять ли rel canonical со страниц при обновлении роботс с запрещающими правилами, или же наоборот канонические тогда нужно будет удалить? Спасибо.
ничего удалять не надо
а закрывать лучше тегом ноиндекс
/ru/forum/1029369
Было принято решение закрыть страницы правилами в robots.txt. Вопрос: оставлять ли rel canonical
robots.txt имеет приоритет. Теоретически. Робот его читает первым, это и по логам видно. Следовательно то, что у вас на этих страницах - фиолетово. Робот туда идти не должен, но заглянет :)
Большое спасибо!
---------- Добавлено 19.03.2020 в 05:38 ----------
Большое вам спасибо!
---------- Добавлено 19.03.2020 в 05:40 ----------
Спасибо вам большое за ответ!