/ru/forum/709708
Так.
в Сохраненные копии загляните... снимок страницы по состоянию на 6 ноя 2012 09:33:24 GMT
Чтобы пролезть по десяткам тыщ страниц и увидеть редирект или каноникал... боту понадобится много времени. Или Гуглу надо срочно перегрузить сеть/сервак запросами?
Редиректом надо предотвращать появление дублей, а исправлять ... может быть и долго.
Добрые были люди?
Вот выше выложены дубли, они как-то закрыты в роботсе?
А в какой теме сайт отвечающий всем правилам яндеса рентабелен?
И, если можно, все реальные правила тут выпишите. Сцылок на ихние представления не надо.
. ...
Точно-вхождение почти ничего не решает.
Не надо бредить...
Проще заноуиндексить непотребство, чем читать
Старые основы http://romip.ru/romip2008/2008_13_Yandex.pdf
там достаточно важный момент.
Потом якобы стало обучаемым http://company.yandex.ru/technologies/search_results/?дебилы
http://help.yandex.ru/webmaster/?id=1111310&гавно#995339
А вот тут и 404 есть. Можно предположить, что когда-то они были 200
Как выглядит процесс? Бот обращается... видит 301, принимает меры. Но можно сделать столько дублей, что на это всё боту понадобятся годы.
У вас вообще есть не-дубли с ? в урле?
А то может написать в роботсе Disallow: /*?
ps От того, что http://www.whitehouse.gov/?ненормативная☺лексика отвечает 200 OK — гуглоиды могут и руками дубли удалять (в целях недопущения ущерба национальному престижу). Но они не могут следить за каждым кривым магазином, сделанным без ТЗ:
— Нам нужен магазин.
— Вот пожалуйста магазин.
А может эти дубли просто не давать индексировать?
Ищите robots.txt, читайте хелпы ... смотрите на урлы дублей, закрывайте (если это возможно).
Можно было бы и не показывать ПС лишние ссылки... но в ТЗ на этом пункте наверное сэкономили, как и на нескольких ещё. Вот теперь решайте проблемы...
Сказки про PageRank Sculpting давно пора забыть.