- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
[цензура]
Есть большой сайт, каталог. На сайте формируется много ссылок- результаты фильтрации. Хотелось бы часть из этих ссылок загнать в индекс.
Поиск в фильтре происходит по 3 основным параметрам и 3-4 малозначительным.
Пример ссылки:
site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&ad_year_min=2004&ad_price_min=100&ad_price_max=1000&ad_condition=bad
Вопрос, как сделать для поисковиков видимой только первую часть ссылки (красный цвет) и чтобы остальную часть ссылки Яндекс и Google просто игнорировали. Какими символами можно отделить важную часть, от малозначимой (переменной)?
Готов показать ссылку в лс для начального аудита.
redeye, при запросе "?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek" отдавать HTTP код 200. При наличии любых других переменных - 404. Аналогично и с поиском по сайту если будете делать через GET.
Через robots.txt пробовали ?
Disallow: *ad_year_min=
Disallow: *ad_price_min=
Disallow: *ad_price_max=
Disallow: *ad_condition=
На страницах с малозначительными параметрами надо ставить тэг
Тогда не потеряется вес внешних и внутренних ссылок на страницы с более длинным хвостом от
http://site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&...
PS: Естественно, надо чётко соблюдать порядок следования параметров в url.
дани мапов, конечно, через robots.txt был бы самый простой вариант, но ведь все эти ссылки содержат и *ad_year_min= и ad_condition и остальные переменные...
То есть все ссылки фильтра окажутся под запретом?
---------- Добавлено 11.05.2015 в 16:33 ----------
Mad_Man, Аналогично ответу выше. В каждой ссылке содержаться эти переменные, которые не следует учитывать..
---------- Добавлено 11.05.2015 в 16:41 ----------
На страницах с малозначительными параметрами надо ставить тэг
Тогда не потеряется вес внешних и внутренних ссылок на страницы с более длинным хвостом от
http://site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&...
PS: Естественно, надо чётко соблюдать порядок следования параметров в url.
Вариант с canonical кажется оптимальным. Я правильно понимаю, нужно сделать очередность параметров в ссылке, сначала важные параметры, которые индексируем и потом остальные не индексируем.
Их может следует разделить каким то символом в ссылке?
очередной СЕО-бред🍿
Их может следует разделить каким то символом в ссылке?
нужно разделять ссылки в которых нет незначимых параметров и добавлять к ним каноникал, и в которых есть незначимые параметры. вторые запрещать к индексации через роботс,
если у вас все ссылки со всеми параметрами, максимум можно выбрать какой-то один набор параметров и ему присваивать каноникал.
зы. очередность параметров конечно хорошо, но вторая часть про часть ссылки индексируется, часть не индексируется... 🤣
totamon, про запрет в robots.txt - не соглашусь, этого делать не надо. rel canonical и был придуман как альтернатива негибкому robots.txt
ПС ссылки "с более хвостами" сами поклеят на "каноноческие" url, и в выдаче будут только канонические.
Запрет индексации через robots.txt некоторых url - отдельный вариант решения задачи ТС, со своими недостатками (потеря ссылочного)
PS: Смешивать оба варианта - смысла нет, это называется "двойной презерватив".
Да и неудобно - поддерживать синхронность списка параметров robots.txt и параметров в rel canonical. А если они будут противоречить друг другу - ты даже не узнаешь, пока страницы из индекса не вылетят.
ТС, вы справку Яндекса и google по rel canonical читали?
если у вас все ссылки со всеми параметрами, максимум можно выбрать какой-то один набор параметров и ему присваивать каноникал...
Да, все эти ссылки будут включать все параметры: и значимые и те параметры, которые не должны учитываться. Поэтому robots.txt не вариант.
---------- Добавлено 11.05.2015 в 23:53 ----------
Ladycharm, Разумеется знаю для чего rel canonical. Но я не использую тег, т.к. поисковики просто не "кушали"новые ссылки сайта, пока не отключил canonical. Возможно следовало подождать некоторое время..
Да и просто хватало возможностей роботс, а тут задача посложнее. Попробую на этом проекте.
Если я все правильно понял то вам в помощь директива Clean-param для robots.txt
http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#clean-param
Ladycharm, Разумеется знаю для чего rel canonical. Но я не использую тег, т.к. поисковики просто не "кушали"новые ссылки сайта, пока не отключил canonical.
Вы, уж, определитесь, что вам, таки, надо - скрыть ссылки(страницы сортировок) от ПС или чтобы они их кушали.
PS: Если rel canonical указывает на другую страницу, эту страницу ПС кушать не будет. Она приклеит её на страницу по url из rel canonical
Если хотите, чтобы роботы ПС ходили по ссылкам, есть вариант использовать мета-тэг <meta robots=noindex, follow">
Ladycharm, наверное не совсем понятно написал. Сейчас еще раз попробую:)
Есть страницы результаты поиска-фильтров такого вида:
Такие страницы должны попадать в индекс ПС, но нужно чтобы поисковиками учитывались только важные параметры (первые три):
Остальные параметры с переменными значениями (которые в url дальше) не должны учитываться ПС (игнорируются). Соответственно страницы с одинаковыми тремя параметрами должны склеиваться и индексироваться.
Возможно ли это реализовать с помощью canonical?
Если я все правильно понял то вам в помощь директива Clean-param для robots.txt
http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#clean-param
Возможно это решение подошло бы для скрытия динамичного хвоста ссылок. Вопрос в том, что clean-param не совсем для этих задач (идентификаторы сессий, пользователей, рефереров и т.п.). И самое главное, Google не понимает это.