В индекс попадёт всё - и 1) и 2) и 3). Сам лично занимался сайтом, где изначально полными дублями были более 30% страниц. А страниц было 25 тыс.
Санкции за дубли ему никто не выписал. У вас страницы 2 и 3 лишь частично дублируют страницу 1. Если 2 и 3 вам нужны, то не закрывайте их---------- Добавлено 17.01.2013 в 14:12 ----------
Поисковик прекрасно умеет отличать каталоги товаров от текстового контента. Вы не сможете продвигать каталоги или карточки, если закроете их от индексации :)
Ссылками информационные ресурсы практически не двигаются. Тут надо делать упор на внутренние факторы - контент, метатеги, перелинковка и т. д. Плюс - статьи и релизы
Тут скорее всего сам валидатор не понимает кодировку. Код UTF-8 понимают все, а 1251 не все.
Если у сайта стоит кодировка 1251, как у вас, то ничего страшного в этом нет. Поиск поймёт всё как надо
Полсекунды для 26 Кб это много.
26 кб в 100 миллисекунд должны укладываться
Была история с маленьким сайтом на DLE, когда есть главная страница и есть 15 статей. Все статьи были плагиатом. В результате в индексе яши висела только морда. Статьи переписали процентов на 50 - и всё OK. Но это единичный пример, возможно в вашем случае будет по-другому
Если title и h1 одинаковые, то учтётся только title. А тег h1 что есть что нет
Лучше составить title на основе h1 и семантики
На данный момент и яднекс и гугл в таких случаях учитывает только одну ссылку - ту которая раньше по html коду
Раньше помогала фишка с добавлением меток к урлам, сейчас уже не работает
Проверьте robots.txt
Проблемы часто случаются именно потому что в роботс закрыто не то что нужно
Сайт переносится на новый движок или на новый домен всё-таки?
Если все редиректы прописать верно, то позиции сохранятся.
1000 редиректов не так много, подвешивать не должно
Если хотите бороться с дублями, то лучше их закрывать в роботс и ставить 301 редирект с дубля на оригинальную страницу
Ещё rel="canonical" помогает бороться с дублями в каталогах