Часть ссылки неиндексируемая. Как сделать?

12
R
На сайте с 17.07.2009
Offline
80
1674

[цензура]

Есть большой сайт, каталог. На сайте формируется много ссылок- результаты фильтрации. Хотелось бы часть из этих ссылок загнать в индекс.

Поиск в фильтре происходит по 3 основным параметрам и 3-4 малозначительным.

Пример ссылки:

site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&ad_year_min=2004&ad_price_min=100&ad_price_max=1000&ad_condition=bad

Вопрос, как сделать для поисковиков видимой только первую часть ссылки (красный цвет) и чтобы остальную часть ссылки Яндекс и Google просто игнорировали. Какими символами можно отделить важную часть, от малозначимой (переменной)?

Готов показать ссылку в лс для начального аудита.

Создание сайтов, техническое сопровождение сайтов (http://professional-web.ru/services/site-support/). Разработка и ведение, контекстных рекламных кампаний. Ищу специалиста по техническому seo аудиту портала (предоплата/+за результат).
Mad_Man
На сайте с 10.11.2008
Offline
162
#1

redeye, при запросе "?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek" отдавать HTTP код 200. При наличии любых других переменных - 404. Аналогично и с поиском по сайту если будете делать через GET.

дани мапов
На сайте с 06.09.2012
Offline
204
#2

Через robots.txt пробовали ?

Disallow: *ad_year_min=

Disallow: *ad_price_min=

Disallow: *ad_price_max=

Disallow: *ad_condition=

Написание и доработка скриптов (PHP, MySQL, JavaScript, jQuery) (/ru/forum/811046)
L
На сайте с 07.12.2007
Offline
351
#3

На страницах с малозначительными параметрами надо ставить тэг

<link rel="canonical" href="http://site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek">

Тогда не потеряется вес внешних и внутренних ссылок на страницы с более длинным хвостом от

http://site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&...

PS: Естественно, надо чётко соблюдать порядок следования параметров в url.

R
На сайте с 17.07.2009
Offline
80
#4

дани мапов, конечно, через robots.txt был бы самый простой вариант, но ведь все эти ссылки содержат и *ad_year_min= и ad_condition и остальные переменные...

То есть все ссылки фильтра окажутся под запретом?

---------- Добавлено 11.05.2015 в 16:33 ----------

Mad_Man, Аналогично ответу выше. В каждой ссылке содержаться эти переменные, которые не следует учитывать..

---------- Добавлено 11.05.2015 в 16:41 ----------

Ladycharm:
На страницах с малозначительными параметрами надо ставить тэг

Тогда не потеряется вес внешних и внутренних ссылок на страницы с более длинным хвостом от
http://site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&...


PS: Естественно, надо чётко соблюдать порядок следования параметров в url.

Вариант с canonical кажется оптимальным. Я правильно понимаю, нужно сделать очередность параметров в ссылке, сначала важные параметры, которые индексируем и потом остальные не индексируем.

Их может следует разделить каким то символом в ссылке?

totamon
На сайте с 12.05.2007
Offline
437
#5

очередной СЕО-бред🍿

Я правильно понимаю, нужно сделать очередность параметров в ссылке, сначала важные параметры, которые индексируем и потом остальные не индексируем.
Их может следует разделить каким то символом в ссылке?

нужно разделять ссылки в которых нет незначимых параметров и добавлять к ним каноникал, и в которых есть незначимые параметры. вторые запрещать к индексации через роботс,

если у вас все ссылки со всеми параметрами, максимум можно выбрать какой-то один набор параметров и ему присваивать каноникал.

зы. очередность параметров конечно хорошо, но вторая часть про часть ссылки индексируется, часть не индексируется... 🤣

Домены и хостинг https://8fn.ru/regru | Дедик от 3000р https://8fn.ru/73 | VPS в Москве https://8fn.ru/72 | Лучшие ВПС, ТП огонь, все страны! https://8fn.ru/inferno | ХОСТИНГ №1 РОССИИ https://8fn.ru/beget
L
На сайте с 07.12.2007
Offline
351
#6

totamon, про запрет в robots.txt - не соглашусь, этого делать не надо. rel canonical и был придуман как альтернатива негибкому robots.txt

ПС ссылки "с более хвостами" сами поклеят на "каноноческие" url, и в выдаче будут только канонические.

Запрет индексации через robots.txt некоторых url - отдельный вариант решения задачи ТС, со своими недостатками (потеря ссылочного)

PS: Смешивать оба варианта - смысла нет, это называется "двойной презерватив".

Да и неудобно - поддерживать синхронность списка параметров robots.txt и параметров в rel canonical. А если они будут противоречить друг другу - ты даже не узнаешь, пока страницы из индекса не вылетят.

ТС, вы справку Яндекса и google по rel canonical читали?

R
На сайте с 17.07.2009
Offline
80
#7
totamon:
если у вас все ссылки со всеми параметрами, максимум можно выбрать какой-то один набор параметров и ему присваивать каноникал...

Да, все эти ссылки будут включать все параметры: и значимые и те параметры, которые не должны учитываться. Поэтому robots.txt не вариант.

---------- Добавлено 11.05.2015 в 23:53 ----------

Ladycharm, Разумеется знаю для чего rel canonical. Но я не использую тег, т.к. поисковики просто не "кушали"новые ссылки сайта, пока не отключил canonical. Возможно следовало подождать некоторое время..

Да и просто хватало возможностей роботс, а тут задача посложнее. Попробую на этом проекте.

IT_DED
На сайте с 07.03.2007
Offline
236
#8

Если я все правильно понял то вам в помощь директива Clean-param для robots.txt

http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#clean-param

⭐ Все мои рекомендации тут - https://in.gl/itded
L
На сайте с 07.12.2007
Offline
351
#9
redeye:
Ladycharm, Разумеется знаю для чего rel canonical. Но я не использую тег, т.к. поисковики просто не "кушали"новые ссылки сайта, пока не отключил canonical.

Вы, уж, определитесь, что вам, таки, надо - скрыть ссылки(страницы сортировок) от ПС или чтобы они их кушали.

PS: Если rel canonical указывает на другую страницу, эту страницу ПС кушать не будет. Она приклеит её на страницу по url из rel canonical

Если хотите, чтобы роботы ПС ходили по ссылкам, есть вариант использовать мета-тэг <meta robots=noindex, follow">

R
На сайте с 17.07.2009
Offline
80
#10

Ladycharm, наверное не совсем понятно написал. Сейчас еще раз попробую:)

Есть страницы результаты поиска-фильтров такого вида:

site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&ad_year_min=2004&ad_price_min=100&ad_price_max=1000&ad_condition=bad

Такие страницы должны попадать в индекс ПС, но нужно чтобы поисковиками учитывались только важные параметры (первые три):

  • location=moscow_region - регион
  • ad_cat=gruzovaya-tehnika - категория
  • ad_brand=hidromek - Бренд

Остальные параметры с переменными значениями (которые в url дальше) не должны учитываться ПС (игнорируются). Соответственно страницы с одинаковыми тремя параметрами должны склеиваться и индексироваться.

Возможно ли это реализовать с помощью canonical?

Думка:
Если я все правильно понял то вам в помощь директива Clean-param для robots.txt
http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#clean-param

Возможно это решение подошло бы для скрытия динамичного хвоста ссылок. Вопрос в том, что clean-param не совсем для этих задач (идентификаторы сессий, пользователей, рефереров и т.п.). И самое главное, Google не понимает это.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий