Вопросы по robots

pablodiablo
На сайте с 21.01.2010
Offline
96
336

Добрый день. Прошу помощи.

Основная страница, которая должна индексироваться: /link.php?link=32

Но, из под фильтров создаются дубли страниц следующего вида:

/link.php?link=32&d=32&srregiontop=2

/link.php?link=32&p=32

/link.php?link=32&srregiontop=11

Как закрыть в robots.txt такие страницы учитывая, что "32" - это переменная, т.е. может быть какое угодно число.

Заранее спасибо.

secondary
На сайте с 20.12.2012
Offline
142
#1

По маскам "srregiontop" + страницам пагинации.

Лучше видеть сайт полностью, прежде, чем давать советы, чтобы не закрыть нужные страницы.

Seo аудит сайтов. Консультации. Качественная внутренняя оптимизация. (/ru/forum/803695) Полная подготовка проектов с нуля! Оптимизация готовых сайтов.
zhurikzzz
На сайте с 16.09.2012
Offline
101
#2

Самое простое - найти элемент, который встречается в ненужных страницах, но которого нет на нужных. У вас это &

Disallow: /*& - закроет от индексации все страницы где встречается &. Но нужно полностью видеть все страницы, вдруг на нужных встречается &.

А вообще - страницы сортировок правильней закрывать от индексации с помощью rel=canonical.

R_Tem
На сайте с 21.08.2008
Offline
137
#3

сделайте лучше ЧПУ.

с такими урлами и работать сложнее и далеко на них не уедешь.

Оптимизайка
На сайте с 11.03.2012
Offline
396
#4

Для яндекса:

Clean-param: srregiontop&p&d /link.php

Для гугла в google webmaster добавить эти параметры в перечень игнорируемых.

Использовать rel="canonical"

+1 за ЧПУ

⭐ BotGuard (https://botguard.net) ⭐ — защита вашего сайта от вредоносных ботов, воровства контента, клонирования, спама и хакерских атак!
pablodiablo
На сайте с 21.01.2010
Offline
96
#5

Всем спасибо! Разобрался.

Именно Disallow: /*&. Как же я сам сразу не заметил.

За ЧПУ +1.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий