Дублирование страниц сайта

R
На сайте с 10.09.2012
Offline
26
440

Есть страницы на сайте, например /search?c=9 меняю страницу на /search/?c=9 или /search?c=9/ или /search?c=9sdlfsdlsdf - получаются дубликаты. Ну короче добавляю символы и получаются одинаковые страницы... Некоторые из них в индексе другие нет. Это сильно может влиять на позиции? Сами позиции далеко не в топе. И как можно отследить эти все дубликаты чтоб, например сделать редиректы?

Willie
На сайте с 08.10.2008
Offline
200
#1

Страницы поиска с такой структурой URL, как у вас, надо обязательно запрещать к индексации. Например, в robots'е, и для верности - в мета тегах самой страницы. Если их оставить, поисковики будут недовольны.

Попробовать мобильные прокси бесплатно: clck.ru/3EKDyC
R
На сайте с 10.09.2012
Offline
26
#2
Willie:
Страницы поиска с такой структурой URL, как у вас, надо обязательно запрещать к индексации. Например, в robots'е, и для верности - в мета тегах самой страницы. Если их оставить, поисковики будут недовольны.

Да, но какие именно запрещать? Я могу в URL любой символ засунуть в конец и он загрузит страницу. Как запретить к индексации все возможные комбинации этого URL?

A
На сайте с 05.02.2012
Offline
6
#3

вот так:

Disallow: /*search

armis.com.ua (http://armis.com.ua)
Willie
На сайте с 08.10.2008
Offline
200
#4
armis:
вот так:
Disallow: /*search

Не, не так. Как правильно - я знаю, но вы посмотрите это в руководствах Гугла. Там же найдете инструмент для проверки.

A
На сайте с 05.02.2012
Offline
6
#5

Как раз в правилах и смотрел. На моем сайте работает.

При Disallow: /*search закрываются все страницы с search, но и, например, /cgi-bin/search, еще вариант Disallow: /search*, тогда робот блокирует страницы, начинающиеся с /search

богоносец
На сайте с 30.01.2007
Offline
775
#6
armis:
При Disallow: /*search

GET http://www.whitehouse.gov/?Козлы

200 ОК

http://www.whitehouse.gov/robots.txt

armis:
Disallow: /search*

Продолжайте чтение хелпов.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий