Google по другому отказы считает, у него если человек пробыл хоть час на одной странице но не сделал внутренний переход - отказ.
Если на старом есть трафик с гугла - значит страницы уже в индексе.
А если дубли контента войдут в индекс и на новом плюс дадут трафик то чем плохо.
Я так себе такой подход понял.
ИМХО - если и работают то плохо, двигал виллы в Испании. особых изменений после простановки ссылок не заметил (прошло 3 месяца)
Главная логика в том - то НЧ и мНЧ намного больше по количеству чем ВЧ и даже СЧ
Сегодня заметил такую штуку по СЧ - забиваю в поиск title посадочной страницы и оказываюсь на 101 месте. При этом трафик на эту страницу есть (по каким запросам не знаю), в кеше правильная версия. Сайту пол года, проседаний трафа не замечено - только рост. Посмотрел другие страницы - не заметил такой особенности. Что это может быть: фильтр, песочница к конкретной странице? Ссылок покупных вообще нет.
Нужно сделать общую страницу модели а каждой странице размера каноникал на неё
А ссылки и сайт в аддурилку кормили?
301 в вашем случае аксиома
Углу нужно сказать что это мобильная версия, а другая основная тегами в хеад. Проблем тогда не будет 100%
Sublime text отличная вещь, но последнее время перешёл на Netbeans - очень удобен но более нворочен и нужно привыкать.