Ну тайтл есть, значит документ не пустой.
А про пустые иногда предупреждения писал
Хотя по другим случаям в подобной диагностике явное враньё попадалось.
А сколько это займёт времени?
А сколько дублей при этом ещё получится?
Вот этого нет.
В Яндексе? Даже с пустым тайтлом?
У меня когда-то получалось только в Гугле проиндексить такое:
<html></html>
В Гугле уже не всегда, но яндексоиды в 2010 почти полностью скопипастили ту фичу с дескрипшном, а в 2011 докопипастили хвостик (в Гугле это сразу было полностью).
Ссылки на это не влияют. И не образует совпадение ничего.
Но хелпы по robots.txt почитайте.
А дубли у вас не закрыты, ждите появления новых... возможно, с большей скоростью, чем удаление старых.
Это как бы система контекстной рекламы, см высказывания создателя
А чтобы это всё приносило доход... у масс в голове должны быть неопровержимые убеждения в том, что Яндекс — поисковая система.
А чтобы в поиск приходилось меньше вкладываться, у вебмастеров в голове должны быть неопровержимые убеждения в том, Они стараются help.yandex.ru/webmaster/?id=995298 ... но реалии таковы, что их бесит до рефлексов — когда им конкретно напоминают, что именно Их технологическая отсталость являются причиной и мотивом засерания www ... а те, кто и засерает рунет — их волнуют меньше (если ведут себя тихо).
Я бы не стал...
В robots.txt боты заглядывают иногда, по логике, им не надо будет обращаться к тясячам страниц, чтобы многие из них повыкидывать.
http://m.searchengines.ru/articles/ranking_the_quo.html
Вот так иносказательно, но показательно.
Одни слова для кухонь, другие для улиц:
/ru/forum/709708
Так.
в Сохраненные копии загляните... снимок страницы по состоянию на 6 ноя 2012 09:33:24 GMT
Чтобы пролезть по десяткам тыщ страниц и увидеть редирект или каноникал... боту понадобится много времени. Или Гуглу надо срочно перегрузить сеть/сервак запросами?
Редиректом надо предотвращать появление дублей, а исправлять ... может быть и долго.