Easyrider

Рейтинг
0
Регистрация
18.08.2013
WhiteSEOMagic:
Вариант 1. Закрыть короткие адреса от индексации через robots.txt, если это возможно.
Если покажите как выглядят длинные и короткие URL, подскажу, можно ли их закрыть в robots.txt и как это сделать.
Подробнее о robots.txt: http://help.yandex.ru/webmaster/?id=996567
Вариант 2. Воспользоваться rel="canonical" для склейки страниц дубликатов.
Для этого нужно выводить в html-коде страницы в теге <head> мета-тег <link rel="canonical" href="http://домен.зона/long-url"/>
Вместо http://домен.зона/long-url должен выводиться длинный URL соотвутствующей страницы.
Если данный тег по умолчанию не выводится, то придется настраивать/дописывать его вывод в движке.
Подробнее о rel="canonical": http://help.yandex.ru/webmaster/?id=1127756#canonical

Большое спасибо за ответ, ссылки выглядят следующим образом:

1) длинная : http://домен.зона/dir1/dir2/dir3/dir4/long_url

2) короткая : http://домен.зона/1087/

количество вложений (dir) для длинной ссылки не ограничено, но на практике максимальный уровень вложенности 4

С уважением.