Как правильно запретить индексацию ненужных страниц

Vonivas
На сайте с 17.11.2007
Offline
143
1257

Коллеги, есть проблема. Периодически на сайте формируются дубли старниц вида:

http://www.site.com/lalala/ololol/trololo?a=n123 (рефки, баги цмски и т.д.)

с контентом, аналогичным старнице:

http://www.site.com/lalala/ololol/trololo

То есть по сути, задача отсекать переменные после урла http://www.site.com/lalala/ololol/trololo

Яндекс советует делать это через Clean Param:

http://help.yandex.ru/webmaster/?id=996567#1041216

Сомневаюсь, как ее правильно написать. Кто сможет помочь? Ну или может подскажет другой спосом красиво и правильно избавиться от подобных дублей страниц в индексе.:confused:

Запилить ТОП10 (http://seowizard.ru)
Delarante
На сайте с 13.07.2008
Offline
69
#1

Я когда столкнулся с такой проблемой, сделал проще, добавил в robots:

Disallow: /*?

Но у меня чпу, это важно...

Vonivas
На сайте с 17.11.2007
Offline
143
#2
Delarante:
Я когда столкнулся с такой проблемой, сделал проще, добавил в robots:


Но у меня чпу, это важно...

Имхо такой вариант порежет кучу нормальных страниц + подразделы разные бывают.

---------- Добавлено 05.04.2012 в 23:26 ----------

Для начала, хочется просто избавиться от всех урлов с "?a=" в адресе. как?

LEOnidUKG
На сайте с 25.11.2006
Offline
1724
#3

ИМХО забить. Это проблемы ПС, чтобы чистить страницы.

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/
V
На сайте с 15.10.2008
Offline
93
#4

есть атрибут rel="canonical", он решит вашу проблему

Обмен ссылками с сайтами из ЯК по темам Культура. В личку...
_SB_
На сайте с 23.06.2008
Offline
39
#5
Vonivas:

Яндекс советует делать это через Clean Param:
http://help.yandex.ru/webmaster/?id=996567#1041216

это не подойдет для гугла

Vonivas:
Имхо такой вариант порежет кучу нормальных страниц + подразделы разные бывают.

Каких например?

Vonivas:
Для начала, хочется просто избавиться от всех урлов с "?a=" в адресе. как?

тогда

Disallow: /*?a=

или

vinaction:
есть атрибут rel="canonical", он решит вашу проблему
Drums
На сайте с 13.02.2011
Offline
81
#6

У меня в свое время начали вылезать в индекс урлы типа mysite.ru/статья?utm_medium и mysite.ru/статья?utm_source и дальше всякое. Конструктивно покопавшись, я понял, что такой хвост цепляет сторонний ресурс, через который идет трансляция в твиттер и мордокнигу. Решение было добавлением в роботс

Clean-param: utm_source *

Clean-param: utm_medium *

Как тут правильно отметили, для гугла эти директивы не катят, но в гугле такие урлы и не вылезали.

У себя я это так заборол.

Шустрые и стабильные VDS на SSD дисках (http://articleland.ru/get/host.php) за 3.49/мес
Vonivas
На сайте с 17.11.2007
Offline
143
#7

Всем спасибо, совсем забыл про Disallow, попробую с ним решить. Главное лишнего не запретить -)

Drums
На сайте с 13.02.2011
Offline
81
#8
Vonivas:
совсем забыл про Disallow

Не забывай про мартовское письмище от Яши, там про:

По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.

За подробностями новшества Яша засылает сюда

Vonivas
На сайте с 17.11.2007
Offline
143
#9

Allow не планируется использовать, поэтому надеюсь все будет ;)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий