Как бороться с дублями страниц в Яндексе с параметром - ?

12
B
На сайте с 04.04.2014
Offline
110
1089

Яндекс постоянно добавляет дубли страниц в индекс такого вида:

  • /?yandex-source=touch-maps
  • /?yandex-source=desktop-maps
  • /?hhtmFrom=employer
  • /?yandex-source=ru.yandex.yandexnavi

Это только часть, набор символов после знака "?" может быть совершенно любая, так что закрытие их от индекса через Clean-param не выход.

На таких страницах у меня естественно стоит rel=canonical на основную, но яндексу плевать, при добавлении в индекс он пишет "Страница попала в поиск, поскольку во время её сканирования роботом её содержимое существенно отличалось от содержимого страницы по адресу", хотя естественно содержимое страницы идентично основной, но он видимо не умеет это определять.

Также недавно попробовал закрыть их в роботсе строкой Disallow: *? , Яндекс сначала выкинул часть из индекса основываясь на этом правиле, затем опять стал добавлять, то есть и это ему плевать.

Поддержка несет какую-то пургу противоречащую друг другу из сообщения в сообщение.

Склоняюсь к тому чтобы наглухо закрыть все подобные страницы метатегом noindex, но это крайний случай.

У кого-нибудь были подобные проблемы? Что делали? Помогло что-нибудь?

S9
На сайте с 01.05.2021
Offline
38
#1
Может чистить  плагином  (WP-Optimize)  все авто черновики и ревизии записей  ?   😊
B
На сайте с 04.04.2014
Offline
110
#2
Тут не в этом дело, и плюс сайт не на WP
Антоний Казанский
На сайте с 12.04.2007
Offline
787
#3
Bjoerndalen :
Это только часть, набор символов после знака "?"

Приведите полный список.

Пока всё покрывается правилом:  yandex-source&hhtmFrom


Bjoerndalen :
набор символов после знака "?" может быть совершенно любая, так что закрытие их от индекса через Clean-param не выход.

Если эта разница в части после "=", то это неважно, какой там набор символов.


Bjoerndalen :
На таких страницах у меня естественно стоит rel=canonical на основную, но яндексу плевать, при добавлении в индекс он пишет "Страница попала в поиск, поскольку во время её сканирования роботом её содержимое существенно отличалось от содержимого страницы по адресу", хотя естественно содержимое страницы идентично основной, но он видимо не умеет это определять.

Правильно, потому что это не ультимативное правило, это лишь рекомендация и Яндекс может переопределить правило (как в вашем случае).


Bjoerndalen :
Также недавно попробовал закрыть их в роботсе строкой Disallow: *? , Яндекс сначала выкинул часть из индекса основываясь на этом правиле, затем опять стал добавлять, то есть и это ему плевать.

Пробуйте Disallow: /?


Bjoerndalen :
Поддержка несет какую-то пургу противоречащую друг другу из сообщения в сообщение.

Что конкретно друг другу противоречит? Приведите последовательно и точно, что у вас вызывает противоречие.


Bjoerndalen :
Склоняюсь к тому чтобы наглухо закрыть все подобные страницы метатегом noindex, но это крайний случай.

Да, это тоже вариант.

√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Разговоры о SEO и не только: культурно, вежливо, доброжелательно ► https://t.me/seotusovochka
B
На сайте с 04.04.2014
Offline
110
#4
Антоний Казанский #:

Приведите полный список.

Пока всё покрывается правилом:  yandex-source&hhtmFrom

Там много разного, я говорю что Clean-param не выход, ибо может быть любая последовательность символов которую не систематизируешь в правило. Сегодня удалю через  Clean-param одно, завтра появится другое.

Антоний Казанский
На сайте с 12.04.2007
Offline
787
#5
Bjoerndalen #:
я говорю что Clean-param не выход

Тогда либо Disallow: /? либо noindex на все страницы, которые начинаются с ?.

[Удален]
#6
Bjoerndalen :
У кого-нибудь были подобные проблемы? Что делали? Помогло что-нибудь?

Я сделал так, что все эти параметры просто удаляются из урл, т.е. обычный редирект на нормальный урл без всех параметров. Остаются только те, которые мне нужны и то не на всех страницах.

ZEEW
На сайте с 03.06.2018
Offline
78
#7
br.almighty #:

Я сделал так, что все эти параметры просто удаляются из урл, т.е. обычный редирект на нормальный урл без всех параметров. Остаются только те, которые мне нужны и то не на всех страницах.

тоже так сделал в htaccess + запретил в robots.txt. но этот метод хорош для сайтов, где не используются get-параметры

A
На сайте с 15.03.2008
Offline
130
#8
br.almighty #:

Я сделал так, что все эти параметры просто удаляются из урл, т.е. обычный редирект на нормальный урл без всех параметров. Остаются только те, которые мне нужны и то не на всех страницах.

А не подскажите правило для htacess, которое это делает?

У меня стоит правило, но работает не так как хочется. Например, страницу с параметром *.php?yandex-source он редиректит на *.php, а вот страницу с просто знаком вопроса  *.php? - он не редиректит.

Антоний Казанский
На сайте с 12.04.2007
Offline
787
#9
ZEEW #:
но этот метод хорош для сайтов, где не используются get-параметры

Очень важная оговорка. Там где используется контекстная реклама, utm метки и разного рода roistat-ы - вариант принудительных редиректов на get параметры не подойдет.

[Удален]
#10
Automaster #:

А не подскажите правило для htacess, которое это делает?

У меня стоит правило, но работает не так как хочется. Например, страницу с параметром *.php?yandex-source он редиректит на *.php, а вот страницу с просто знаком вопроса  *.php? - он не редиректит.

Не подскажу. У меня сделан посредник для Laravel. Для каждого маршрута добаляю посредник и указываю параметры, которые не нужно удалять.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий