яндекс индексирует страницы по /?style=printme&mobile_override=

K6
На сайте с 28.02.2022
Offline
95
315

собственно сабж

яндекс индексирует страницы по /?style=printme&mobile_override= 

хотя в роботс.тхт стоит правило, в т.ч. для яши:  

Disallow: /?

как решить проблему?

дешевые VIP VPS: https://clck.ru/324vy9
Антоний Казанский
На сайте с 12.04.2007
Offline
711
#1
katz666 :
как решить проблему?

Через Clean-param.

Clean-param: style


katz666 :

хотя в роботс.тхт стоит правило, в т.ч. для яши:  

Disallow: /?

Это правило не будет работать.

√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга.
Kaavain
На сайте с 28.07.2015
Offline
159
#2

Одним не обойдешься. Да и по моим наблюдениям какая-то стремная директива. То ли работает, то ли нет. Железно:

User-agent: *
Disallow: /*?мусор*

Где "мусор" подстрока УРЛ, например - параметр, который точно не встречается в нужных УРЛ и обязательно есть в мусорных.

Могу порекомендовать только хостинг: https://traf.at/vps - за 3 года все на 4++ и цены не подняли. Ну и банк для белых ИП: https://traf.at/bankm
dansokolov
На сайте с 25.09.2007
Offline
141
#3
Kaavain #:

Одним не обойдешься. Да и по моим наблюдениям какая-то стремная директива. То ли работает, то ли нет.

Нормально работает

Антоний Казанский
На сайте с 12.04.2007
Offline
711
#4
Kaavain #:
Одним не обойдешься

Одним скорее все не обойдется, потому что наверняка всплывут еще параметры, включая внешние типа utm и т.д.


Kaavain #:
Да и по моим наблюдениям какая-то стремная директива

Вполне нормальная регламентируемая директива


Kaavain #:
То ли работает, то ли нет.

Работает точно, проверял лично и лично в Вебмастере получал уведомления Исключено по правилам clean-param (за точность формулировки не ручаюсь, но то, что убирали из индекса по clean-param - совершенно точно).


Kaavain #:

Железно:

User-agent: *
Disallow: /*?мусор*

Где "мусор" подстрока УРЛ, например - параметр, который точно не встречается в нужных УРЛ и обязательно есть в мусорных.

Можно и так, но:

а) Ваш вариант запрещает обходить, тогда как clean-param как раз не учитывает адреса с нужными динамическими параметрами.

б) Яндекс в подобных случаях рекомендует использовать именно clean-param. 

в) Динамические параметры удобнее дописывать т.е.   Clean-param: style&utm&еще_чего-нибудь&ещё_чего-нибудь и т.д.

Но это конечно мелкие частности, ваш вариант тоже имеет место быть.  

V
На сайте с 20.09.2009
Offline
151
#5
katz666 :

собственно сабж

яндекс индексирует страницы по /?style=printme&mobile_override= 

хотя в роботс.тхт стоит правило, в т.ч. для яши:  

Disallow: /?

как решить проблему?

301 поставить

S
На сайте с 23.01.2006
Offline
140
#6

в коде проверять наличие ненужных get-переменных в запрошенном url и выводить в секции <head> вместо обычного <meta name="robots" content ="index,follow"> (если он вообще есть) - запрет через <meta name="robots" content="noindex,follow">   Это решит вопрос и с Яндексом, и с Гуглом.

robots.txt - не директива, а рекомендация, оба поисковика могут его игнорировать, если на страницы с параметрами где-то нарыли прямые ссылки (изнутри сайта или внешние).

Clean-param работает только для Яндекса и далеко не всегда (хотя чаще работает).

<link rel="canonical"> также рекомендация и Яндекс ее очень часто игнорирует по сочетанию прочих сигналов.

Полезности: Комплексное ускорение сайтов https://www.aseo.tech | Статьи для сайтов и Дзена по 19,9 руб. https://fixpricecontent.ru
Александр
На сайте с 18.03.2020
Offline
195
#7
Антоний Казанский #:

Через Clean-param.

Clean-param: style

?utm_source=fact
?P�f��D??ce=fact
И кучу всяких вариаций похожих, как с этим совладать?

Это в роботсе как-то можно "причесать"?
Буквально, на днях появились в вебмастере с клик = 1 сразу после бототрафа.

png 2022-11-17.png
D.iK.iJ
На сайте с 26.05.2013
Offline
229
#8

Я свой роботс временами дописываю. Первый параметр - для главной, так как у меня там нет ничего с ?. 

Disallow: /?

Disallow: /*?utm
Disallow: /*?fbclid

Disallow: /*?ysclid

Остальное - для всех страниц.  /*?utm помогает и от  ?utm_source. Вроде все спокойно работает. Яндекс понимает.

В идеале, конечно, 301 редирект или хоть запрет в мета-тегах. Для того же Гугла он считается более строгим.


Адаптивный дизайн в 2 строчки ( https://dikij.com/wm/adaptaciya-saytov.php ). + Принимаю заказы любой сложности ( https://searchengines.guru/ru/forum/926323 ). 💎 Еще я делаю классные кулоны с опалами ( https://mosaicopal.ru/ ).
K6
На сайте с 28.02.2022
Offline
95
#9
sPoul #:

запрет через <meta name="robots" content="noindex,follow">   Это решит вопрос и с Яндексом, и с Гуглом. 

не знаю как с гошей, а с яша на такой тег через сутки присылает: 

Старый код страницы: 200
Новый код страницы: URL запрещён к индексированию тегом noindex

так что никому  не советую

а всем остальным отписавшимся спасибо

Виктор Петров
На сайте с 05.01.2020
Offline
240
#10
katz666 #:

не знаю как с гошей, а с яша на такой тег через сутки присылает: 

Старый код страницы: 200
Новый код страницы: URL запрещён к индексированию тегом noindex

так что никому  не советую

а всем остальным отписавшимся спасибо

Ну да. А что нужно-то? Вот у вас страница дубль, конкретно - версия для печати.
Она в индексе зачем?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий