Добрые были люди?
Вот выше выложены дубли, они как-то закрыты в роботсе?
А в какой теме сайт отвечающий всем правилам яндеса рентабелен?
И, если можно, все реальные правила тут выпишите. Сцылок на ихние представления не надо.
. ...
Точно-вхождение почти ничего не решает.
Не надо бредить...
Проще заноуиндексить непотребство, чем читать
Старые основы http://romip.ru/romip2008/2008_13_Yandex.pdf
там достаточно важный момент.
Потом якобы стало обучаемым http://company.yandex.ru/technologies/search_results/?дебилы
http://help.yandex.ru/webmaster/?id=1111310&гавно#995339
А вот тут и 404 есть. Можно предположить, что когда-то они были 200
Как выглядит процесс? Бот обращается... видит 301, принимает меры. Но можно сделать столько дублей, что на это всё боту понадобятся годы.
У вас вообще есть не-дубли с ? в урле?
А то может написать в роботсе Disallow: /*?
ps От того, что http://www.whitehouse.gov/?ненормативная☺лексика отвечает 200 OK — гуглоиды могут и руками дубли удалять (в целях недопущения ущерба национальному престижу). Но они не могут следить за каждым кривым магазином, сделанным без ТЗ:
— Нам нужен магазин.
— Вот пожалуйста магазин.
А может эти дубли просто не давать индексировать?
Ищите robots.txt, читайте хелпы ... смотрите на урлы дублей, закрывайте (если это возможно).
Можно было бы и не показывать ПС лишние ссылки... но в ТЗ на этом пункте наверное сэкономили, как и на нескольких ещё. Вот теперь решайте проблемы...
Сказки про PageRank Sculpting давно пора забыть.
Вообще-то нет проблем с изменением сайта для посетителя, оставив всё неизменным для ПС.
При этом... надо сохранить урлы, известные боту, а то вам снова придётся продвигать.
Ну вот сегодня заметил склейку (24-го её ещё не было).
В роботсе новый Host был указан в начале августа.
А сколько ещё ждать учёта сцылок...