Нужно ли убирать канонические при закрытии страниц в robots.txt

HK
На сайте с 22.04.2019
Offline
19
266

Добрый день! Столкнулась на нескольких проектах со следующей проблемой: прописан rel canonical для страниц вида (даны далее примеры) site.ru/otzyvy?review_start=20 и site.ru/konsultacii?lm_scope=section_consultations&lm_id=481&page=2, но при этом рел каноникал игнорируется, в Я.Вебмастере в разделе "Страницы в поиске" уведомление, что страницы все равно попадают в индекс, и они правда в поиске Яндекса и Гугла, проверяла.

Было принято решение закрыть страницы правилами в robots.txt. Вопрос: оставлять ли rel canonical со страниц при обновлении роботс с запрещающими правилами, или же наоборот канонические тогда нужно будет удалить? Спасибо.

magna1983
На сайте с 25.01.2019
Offline
32
#1

Если вы запрещаете роботу сканирования, то как он должен увидеть вообще какие-то теги на этих страницах

Служба индексирования (http://speed-links.net/)
HK
На сайте с 22.04.2019
Offline
19
#2

Да, вы правы, логично)) ну думала вдруг это всё равно ошибка так оставлять)

magna1983
На сайте с 25.01.2019
Offline
32
#3

Бывают ошибки на стороне ботов ПС и они лезут в индекс. Я наблюдал подстраховочные решения в виде тегов noindex на закрытых в роботсе страницах.

Директива disallow призначена для правильного использования краулингового бюджета, все остальное - от лукавого 🙅

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий