Вот видите, все свелось к тому что мы выяснили что на ранжирование дубли влияют такими далекими косвенными факторами, что можно заявлять что не влияют. Только сканирование. И то, при загрузке системы, мощности которой постоянно растут.
По продемонстрированным вами примерам можно понять что вам будет уже плавать на эти дубли если дорастете до уровня Яндекса, а если сайт мелкий то всем остальным плевать на ваши дубли.
Если есть возможность малой кровью исключить, не допустить дубли то так будет лучше - используйте правильное по.
Но бороться с дублями в надежде на плюшку Гугла - реальная трата времени.
Предлагаю закрывать тему.
У Вас ключевые слова в рассуждениях "могли бы", "если бы", "какие то". У вас сообщений выше крыши, должен был уже конкретно знать, что и за чем. Гугл это всего лишь алгоритм. Да, часто меняется но алгоритм.
Вот давайте сейчас начнем злостно бороться с зелеными человечками, а вдруг прилетят )
С другой стороны может это такая тактика борьбы с конкурентами - максимально запудрить мозги начинающим и бестолковым оптимизаторам, что бы вместо продвижения занимались всякой ахинеей, тогда - да, поддерживаю борьбу с дублями )
Но для указанных вами примеров необходимо условие что бы на дубли были внешние ссылки. Тем более нужный контент все равно в выдаче. А если внешних ссылок на дубли нет и у сайта нет десятка тысяч внутряка, может проще плюнуть на эту гипотетическую псевдоопасность и заняться полезным делом, как Яндекс )
Смотрю тут на форуме 90% оптимизаторов строят в корне неверные предположения относительно главных причин нелюбви Гугла к их сайтам, а дубли одно из самых больших заблуждений
Народ, а кто ставил эксперимент и может доказать что дубли 100% влияют на выдачу?! Все мои проверки свелись к тому что Гуглу плевать на дубли. Я конечно понимаю, что народу хочется почистить дубли, код страницы от ошибок, навести полный порядок и радоваться чисто выполненной работе... Я тоже за чистоту и порядок в проектах и считаю что лучше не допускать их, как минимум потому что нагрузка на сервер меньше при сканировании ботами. Канноникал для того и предназначен, но он не поднимет ваш сайт в рейтинге, так же как и избавление от дублей. Зачем мусолить и дальше темы чистки исходного кода и движка от дублей, особенно для сайта у которого всего сотня страниц. Люди, у вас что полезных дел нет?
В разных сайтах очень по разному
Для начала подождать
Пропингуйте их или добавьте три! новые страницы на сайт, на которые будет ссылки с главной, с которых будут вести ссылки на все те страницы, которые раннее давали 404 ошибку
Пока вы тут наивные спорите я проверяю )
Фильтр пингвин наподобии карантина. Поэтому от пингвина лечит только время. Если ничего не делать с сайтом от года до двух он выходит из под пингвина самостоятельно. За это время лучше сделать новый сайт и работать с ним.
Расчет Гугла очень прост, и кстати правильный. Любой сайт на арендованных ссылках и черпающий траф только с поиска за это время умрет, а спамные ссылки с ГС сайтов за это время сами отвалятся.
Огромное спасибо, натолкнули на одну очень интересную мысль, пошел допиливать движок )