ronibestplay

Рейтинг
53
Регистрация
06.02.2022
Антоний Казанский #:

Вы правы, как правило целевые страницы должны иметь чёткий ЧПУ URL, get параметры образуют листинги, условия сортировок и т.д., хотя конечно на форумах, например, страницы с профилями пользователей могут быть с get параметрами.


Должен выплюнуть, но процесс может затягиваться, поэтому наряду с закрытием индексации рекомендуется также вручную отправить заявку на исключение из индекса через Яндекс.Вебмастер.


У Яндекса много странностей (например, массовая индексация страниц с UTM метками) и казалось бы - Яндекса отчётливо понимает назначение этих страниц, но всё-равно может индексировать, если нет запрета на их индексацию через того же clear-param.  

В общем, запрещайте через robots, ставьте canonical-ы (они вообще должны быть), отправляйте заявки на удаление ненужных страниц в индексе и ближайшую рабочую перспективу этого вполне достаточно.

Тут вообще жуть какую то заметил. Я 200 запросов через каждые два дня прогоняю в KeyCollector. Достаточное время чтобы офигеть, первый раз за все время увидел что у части запросов url позиции стоит /?= вместо главной. Причем при проверке в браузере отображается просто главная. Жесть какая то...Правильно ли будет так ,  < link rel=“canonical” href=“https://site.ru/”/>  разместить на главной? Или тут много лишних слэшей?
Даже тот же скрипт с калькулятора 8*4200 , ну это откровенно смешно загонять в индекс такие страницы. Это явно недостатки робота.
Антоний Казанский #:

Если это не мешает общей функциональности сайта, то да, вполне можно реализовать. Но тут нужно аккуратней, чтобы правило редиректа не перекрывала другие get параметры, которые могут использоваться.

А общий признак URL-а действительно можно постараться закрыть через Clean-param (правда,  только для Яндекса), Гугл будет игнорировать. 

Гугл так то страницы без колдовства с api не заносит в индекс, поэтому я думаю с ним проблем на этот счет не будет. Они так или иначе впереди по алгоритму как поисковик. Я вот честно говоря себе пока не представляю такой ситуации, чтобы get параметры были нужны как таковые. Если какая то страница продвигается, то по прямому урлу, собственно говоря все cannonical и редиректы для этого условно и придуманы. Надеюсь яша выплюнет страницу, а их происхождение очевидно скрипты и различные ajax запросы. Их я просто мягко говоря взаимствую толком не разбираясь что там за функции.

А если вот так ставить, все ?input по всему сайту автоматом редиректит на изначальную страницу. На одном из сайтов висит в поиске до сих пор 8*4200 (вернее проиндексирована со 2 марта). Посмотрю удалиться ли без лишних движений.

User-agent: *
Disallow:
Clean-param: input

totamon #:
да, можно и на остальных тоже на самих себя
Спасибо приберегу canonical на какие нибудь другие беды) Не нравиться он мне почему то. Кажется мне, что робот пускай лучше не думает какую ему где страницу показывать, а пусть как программа выставлена так и выставляет в топ страницы)

Ну да глянул получается чем disallow каждый раз для страниц включать проще простую вот такую конструкцию использовать

User-agent: *
Disallow:
Clean-param: input /page

Кому то может быть опасно наверное такое применять в интернет магазинах и прочем, однако для меня выход просто отличный.

jpg 2022-03-13_21h14_22.jpg
особенно видео довольно хорошо

https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Вот тут довольно много интересного на этот счет

Говорили использовать rel cannonical, подскажите пожалуйста на примере одной страницы как его сделать в такой ситуации. Допустим на главной разместить на саму себя?
<link rel="canonical" href="http://site.ru">

Вобщем вот такой ответ пришел из техподдержки. От себя замечу что любые сайты открываются с такими приставками, более терять время на этот вопрос нет желания.

Я:

Здравствуйте. Обратился на форум вебмастеров с вопросом.

Вот в данный момент мой файл robots.txt

Disallow: /?feed=comments-rss2
Disallow: /?p=1
Disallow: /?author=1
Disallow: /?cat=1
Disallow: /?feed=rss2
Disallow: /?m=201605
Disallow: /?page=support
Disallow: /?a=support

Мне приходится создавать подобные разделы так как в webmaster яндекс добавляются эти страницы. На форуме мне подсказали, что https://site.ru/?=chto_ugodno такого не должно быть и это связано с хостингом. Должна 404 страница отображаться. Вы можете мне чем то помочь?

Ответ

Здравствуйте, прошу прощения за долгий ответ.
 
Google не рекомендуют блокировать индексацию URL с GET-параметрами https://www.seroundtable.com/google-block-of-urls-with-parameters-no-28501.html
 
Но несмотря на это, делать это можно. Не рекомендуется так делать просто из-за того, что подобный disallow может повлиять на поисковый рейтинг, так как с индексации выпадают все страницы, подпадающие под подобный параметр.
 
Рекомендуем по данному вопросу обратиться к SEO специалисту, так как данный вопрос относится к SEO либо к разработчику сайта. Данный вопрос выходит за рамки нашей техподдержки.

Всего: 315